Ändra sökning
Avgränsa sökresultatet
123 1 - 50 av 124
RefereraExporteraLänk till träfflistan
Permanent länk
Referera
Referensformat
  • apa
  • harvard1
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Träffar per sida
  • 5
  • 10
  • 20
  • 50
  • 100
  • 250
Sortering
  • Standard (Relevans)
  • Författare A-Ö
  • Författare Ö-A
  • Titel A-Ö
  • Titel Ö-A
  • Publikationstyp A-Ö
  • Publikationstyp Ö-A
  • Äldst först
  • Nyast först
  • Skapad (Äldst först)
  • Skapad (Nyast först)
  • Senast uppdaterad (Äldst först)
  • Senast uppdaterad (Nyast först)
  • Disputationsdatum (tidigaste först)
  • Disputationsdatum (senaste först)
  • Standard (Relevans)
  • Författare A-Ö
  • Författare Ö-A
  • Titel A-Ö
  • Titel Ö-A
  • Publikationstyp A-Ö
  • Publikationstyp Ö-A
  • Äldst först
  • Nyast först
  • Skapad (Äldst först)
  • Skapad (Nyast först)
  • Senast uppdaterad (Äldst först)
  • Senast uppdaterad (Nyast först)
  • Disputationsdatum (tidigaste först)
  • Disputationsdatum (senaste först)
Markera
Maxantalet träffar du kan exportera från sökgränssnittet är 250. Vid större uttag använd dig av utsökningar.
  • 1.
    Almeida, Diogo
    et al.
    KTH, Skolan för datavetenskap och kommunikation (CSC), Robotik, perception och lärande, RPL. KTH.
    Ambrus, Rares
    KTH, Skolan för datavetenskap och kommunikation (CSC), Datorseende och robotik, CVAP.
    Caccamo, Sergio
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Chen, Xi
    KTH.
    Cruciani, Silvia
    Pinto Basto De Carvalho, Joao F
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Haustein, Joshua
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Marzinotto, Alejandro
    KTH, Skolan för datavetenskap och kommunikation (CSC), Datorseende och robotik, CVAP.
    Vina, Francisco
    KTH.
    Karayiannidis, Yannis
    KTH.
    Ögren, Petter
    KTH, Skolan för teknikvetenskap (SCI), Matematik (Inst.), Optimeringslära och systemteori.
    Jensfelt, Patric
    KTH, Skolan för datavetenskap och kommunikation (CSC), Robotik, perception och lärande, RPL.
    Kragic, Danica
    KTH, Skolan för datavetenskap och kommunikation (CSC), Robotik, perception och lärande, RPL.
    Team KTH’s Picking Solution for the Amazon Picking Challenge 20162017Ingår i: Warehouse Picking Automation Workshop 2017: Solutions, Experience, Learnings and Outlook of the Amazon Robotics Challenge, 2017Konferensbidrag (Övrig (populärvetenskap, debatt, mm))
    Abstract [en]

    In this work we summarize the solution developed by Team KTH for the Amazon Picking Challenge 2016 in Leipzig, Germany. The competition simulated a warehouse automation scenario and it was divided in two tasks: a picking task where a robot picks items from a shelf and places them in a tote and a stowing task which is the inverse task where the robot picks items from a tote and places them in a shelf. We describe our approach to the problem starting from a high level overview of our system and later delving into details of our perception pipeline and our strategy for manipulation and grasping. The solution was implemented using a Baxter robot equipped with additional sensors.

  • 2.
    Almeida, Diogo
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Ataer-Cansizoglu, Esra
    Corcodel, Radu
    Detection, Tracking and 3D Modeling of Objects with Sparse RGB-D SLAM and Interactive Perception2019Ingår i: IEEE-RAS International Conference on Humanoid Robots (Humanoids), 2019Konferensbidrag (Refereegranskat)
    Abstract [en]

    We present an interactive perception system that enables an autonomous agent to deliberately interact with its environment and produce 3D object models. Our system verifies object hypotheses through interaction and simultaneously maintains 3D SLAM maps for each rigidly moving object hypothesis in the scene. We rely on depth-based segmentation and a multigroup registration scheme to classify features into various object maps. Our main contribution lies in the employment of a novel segment classification scheme that allows the system to handle incorrect object hypotheses, common in cluttered environments due to touching objects or occlusion. We start with a single map and initiate further object maps based on the outcome of depth segment classification. For each existing map, we select a segment to interact with and execute a manipulation primitive with the goal of disturbing it. If the resulting set of depth segments has at least one segment that did not follow the dominant motion pattern of its respective map, we split the map, thus yielding updated object hypotheses. We show qualitative results with a Fetch manipulator and objects of various shapes, which showcase the viability of the method for identifying and modelling multiple objects through repeated interactions.

  • 3.
    Almeida, Diogo
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Karayiannidis, Yiannis
    KTH, Skolan för datavetenskap och kommunikation (CSC), Robotik, perception och lärande, RPL.
    A Lyapunov-Based Approach to Exploit Asymmetries in Robotic Dual-Arm Task Resolution2019Ingår i: 58th IEEE Conference on Decision and Control (CDC), 2019Konferensbidrag (Refereegranskat)
    Abstract [en]

    Dual-arm manipulation tasks can be prescribed to a robotic system in terms of desired absolute and relative motion of the robot’s end-effectors. These can represent, e.g., jointly carrying a rigid object or performing an assembly task. When both types of motion are to be executed concurrently, the symmetric distribution of the relative motion between arms prevents task conflicts. Conversely, an asymmetric solution to the relative motion task will result in conflicts with the absolute task. In this work, we address the problem of designing a control law for the absolute motion task together with updating the distribution of the relative task among arms. Through a set of numerical results, we contrast our approach with the classical symmetric distribution of the relative motion task to illustrate the advantages of our method.

  • 4.
    Almeida, Diogo
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Karayiannidis, Yiannis
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Asymmetric Dual-Arm Task Execution using an Extended Relative Jacobian2019Ingår i: The International Symposium on Robotics Research, 2019Konferensbidrag (Refereegranskat)
    Abstract [en]

    Coordinated dual-arm manipulation tasks can be broadly characterized as possessing absolute and relative motion components. Relative motion tasks, in particular, are inherently redundant in the way they can be distributed between end-effectors. In this work, we analyse cooperative manipulation in terms of the asymmetric resolution of relative motion tasks. We discuss how existing approaches enable the asymmetric execution of a relative motion task, and show how an asymmetric relative motion space can be defined. We leverage this result to propose an extended relative Jacobian to model the cooperative system, which allows a user to set a concrete degree of asymmetry in the task execution. This is achieved without the need for prescribing an absolute motion target. Instead, the absolute motion remains available as a functional redundancy to the system. We illustrate the properties of our proposed Jacobian through numerical simulations of a novel differential Inverse Kinematics algorithm.

  • 5.
    Almeida, Diogo
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Karayiannidis, Yiannis
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL. Dept. of Electrical Eng., Chalmers University of Technology.
    Cooperative Manipulation and Identification of a 2-DOF Articulated Object by a Dual-Arm Robot2018Ingår i: 2018 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA) / [ed] IEEE, 2018, s. 5445-5451Konferensbidrag (Refereegranskat)
    Abstract [en]

    In this work, we address the dual-arm manipula-tion of a two degrees-of-freedom articulated object that consistsof two rigid links. This can include a linkage constrainedalong two motion directions, or two objects in contact, wherethe contact imposes motion constraints. We formulate theproblem as a cooperative task, which allows the employment ofcoordinated task space frameworks, thus enabling redundancyexploitation by adjusting how the task is shared by the robotarms. In addition, we propose a method that can estimate thejoint location and the direction of the degrees-of-freedom, basedon the contact forces and the motion constraints imposed bythe object. Experimental results demonstrate the performanceof the system in its ability to estimate the two degrees of freedomindependently or simultaneously.

  • 6.
    Almeida, Diogo
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Karayiannidis, Yiannis
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL. Chalmers University of Technology.
    Folding Assembly by Means of Dual-Arm Robotic Manipulation2016Ingår i: 2016 IEEE International Conference on Robotics and Automation, IEEE conference proceedings, 2016, s. 3987-3993Konferensbidrag (Refereegranskat)
    Abstract [en]

    In this paper, we consider folding assembly as an assembly primitive suitable for dual-arm robotic assembly, that can be integrated in a higher level assembly strategy. The system composed by two pieces in contact is modelled as an articulated object, connected by a prismatic-revolute joint. Different grasping scenarios were considered in order to model the system, and a simple controller based on feedback linearisation is proposed, using force torque measurements to compute the contact point kinematics. The folding assembly controller has been experimentally tested with two sample parts, in order to showcase folding assembly as a viable assembly primitive.

  • 7.
    Antonova, Rika
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Kokic, Mia
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Stork, Johannes A.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Kragic, Danica
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Global Search with Bernoulli Alternation Kernel for Task-oriented Grasping Informed by Simulation2018Konferensbidrag (Refereegranskat)
    Abstract [en]

    We develop an approach that benefits from large simulated datasets and takes full advantage of the limited online data that is most relevant. We propose a variant of Bayesian optimization that alternates between using informed and uninformed kernels. With this Bernoulli Alternation Kernel we ensure that discrepancies between simulation and reality do not hinder adapting robot control policies online. The proposed approach is applied to a challenging real-world problem of task-oriented grasping with novel objects. Our further contribution is a neural network architecture and training pipeline that use experience from grasping objects in simulation to learn grasp stability scores. We learn task scores from a labeled dataset with a convolutional network, which is used to construct an informed kernel for our variant of Bayesian optimization. Experiments on an ABB Yumi robot with real sensor data demonstrate success of our approach, despite the challenge of fulfilling task requirements and high uncertainty over physical properties of objects.

  • 8.
    Arnekvist, Isac
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Kragic, Danica
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Stork, Johannes A.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Vpe: Variational policy embedding for transfer reinforcement learning2019Konferensbidrag (Refereegranskat)
  • 9.
    Barbosa, Fernando S.
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Duberg, Daniel
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Jensfelt, Patric
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Tumova, Jana
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Guiding Autonomous Exploration with Signal Temporal Logic2019Ingår i: IEEE Robotics and Automation Letters, ISSN 2377-3766, E-ISSN 1949-3045, Vol. 4, nr 4, s. 3332-3339Artikel i tidskrift (Refereegranskat)
    Abstract [en]

    Algorithms for autonomous robotic exploration usually focus on optimizing time and coverage, often in a greedy fashion. However, obstacle inflation is conservative and might limit mapping capabilities and even prevent the robot from moving through narrow, important places. This letter proposes a method to influence the manner the robot moves in the environment by taking into consideration a user-defined spatial preference formulated in a fragment of signal temporal logic (STL). We propose to guide the motion planning toward minimizing the violation of such preference through a cost function that integrates the quantitative semantics, i.e., robustness of STL. To demonstrate the effectiveness of the proposed approach, we integrate it into the autonomous exploration planner (AEP). Results from simulations and real-world experiments are presented, highlighting the benefits of our approach.

  • 10.
    Billard, Aude
    et al.
    Ecole Polytech Fed Lausanne, Learning Algorithms & Syst Lab, Lausanne, Switzerland..
    Kragic, Danica
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Trends and challenges in robot manipulation2019Ingår i: Science, ISSN 0036-8075, E-ISSN 1095-9203, Vol. 364, nr 6446, s. 1149-+Artikel, forskningsöversikt (Refereegranskat)
    Abstract [en]

    Dexterous manipulation is one of the primary goals in robotics. Robots with this capability could sort and package objects, chop vegetables, and fold clothes. As robots come to work side by side with humans, they must also become human-aware. Over the past decade, research has made strides toward these goals. Progress has come from advances in visual and haptic perception and in mechanics in the form of soft actuators that offer a natural compliance. Most notably, immense progress in machine learning has been leveraged to encapsulate models of uncertainty and to support improvements in adaptive and robust control. Open questions remain in terms of how to enable robots to deal with the most unpredictable agent of all, the human.

  • 11.
    Björklund, Linnea
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Knock on Wood: Does Material Choice Change the Social Perception of Robots?2018Självständigt arbete på avancerad nivå (masterexamen), 20 poäng / 30 hpStudentuppsats (Examensarbete)
    Abstract [sv]

    Denna uppsats undersöker huruvida det finns en skillnad i hur socialt interaktiva robotar uppfattas baserat på vilket material de är tillverkade i. Två studier gjordes för att ta reda på detta: En pilotstudie som skedde fysiskt, och huvudstudien skedde online. Deltagarna ombads att skatta tre versioner av samma robotdesign, där en var byggd i trä, en i plast och en täckt i päls. Dessa användes sedan i två studier för att bedöma deltagarnas uppfattning av robotarnas kompetens, värme och obehag, samt skillnaderna i dessa mellan de tre materialen. Statistiskt signifikanta skillnader hittades i uppfattningen av värme och obehag.

  • 12.
    Blom, Fredrik
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Unsupervised Feature Extraction of Clothing Using Deep Convolutional Variational Autoencoders2018Självständigt arbete på avancerad nivå (masterexamen), 20 poäng / 30 hpStudentuppsats (Examensarbete)
    Abstract [sv]

    I takt med att E-handeln fortsätter att växa och kunderna i ökad utsträckning rör sig online, genereras stora mängder värdefull data, exempelvis transaktions- och sökhistorik, och specifikt för klädeshandeln, välstrukturerade bilder av kläder. Genom att använda oövervakad maskininlärning (unsupervised machine learning) är det möjligt att utnyttja denna, nästan obegränsade mängd data. Detta arbete syftar till att utreda i vilken utsträckning generativa modeller, särskilt djupa självkodande neurala faltningsnätverk (deep convolutional variational autoencoders), kan användas för att automatiskt extrahera definierande drag från bilder av kläder. Genom att granska olika varianter av självkodaren framträder en optimal relation mellan storleken på den latenta vektorn och komplexiteten på den bilddata som nätverket tränades på. Vidare noterades att dragen kan fördeladas unikt på variablerna, i detta fall t-shirts och toppar, genom att vikta den latenta förlustfunktionen.

  • 13.
    Bore, Nils
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Ekekrantz, Johan
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Jensfelt, Patric
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Folkesson, John
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Detection and Tracking of General Movable Objects in Large Three-Dimensional Maps2019Ingår i: IEEE Transactions on robotics, ISSN 1552-3098, E-ISSN 1941-0468, Vol. 35, nr 1, s. 231-247Artikel i tidskrift (Refereegranskat)
    Abstract [en]

    This paper studies the problem of detection and tracking of general objects with semistatic dynamics observed by a mobile robot moving in a large environment. A key problem is that due to the environment scale, the robot can only observe a subset of the objects at any given time. Since some time passes between observations of objects in different places, the objects might be moved when the robot is not there. We propose a model for this movement in which the objects typically only move locally, but with some small probability they jump longer distances through what we call global motion. For filtering, we decompose the posterior over local and global movements into two linked processes. The posterior over the global movements and measurement associations is sampled, while we track the local movement analytically using Kalman filters. This novel filter is evaluated on point cloud data gathered autonomously by a mobile robot over an extended period of time. We show that tracking jumping objects is feasible, and that the proposed probabilistic treatment outperforms previous methods when applied to real world data. The key to efficient probabilistic tracking in this scenario is focused sampling of the object posteriors.

  • 14.
    Bore, Nils
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Torroba, Ignacio
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Folkesson, John
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Sparse Gaussian Process SLAM, Storage and Filtering for AUV Multibeam Bathymetry2018Ingår i: 2018 IEEE OES Autonomous Underwater Vehicle Symposium, 2018Konferensbidrag (Refereegranskat)
    Abstract [en]

    With dead-reckoning from velocity sensors,AUVs may construct short-term, local bathymetry mapsof the sea floor using multibeam sensors. However, theposition estimate from dead-reckoning will include somedrift that grows with time. In this work, we focus on long-term onboard storage of these local bathymetry maps,and the alignment of maps with respect to each other. Wepropose using Sparse Gaussian Processes for this purpose,and show that the representation has several advantages,including an intuitive alignment optimization, data com-pression, and sensor noise filtering. We demonstrate thesethree key capabilities on two real-world datasets.

  • 15.
    Brucker, Manuel
    et al.
    German Aerosp Ctr DLR, Inst Robot & Mechatron, D-82234 Oberpfaffenhofen, Germany..
    Durner, Maximilian
    German Aerosp Ctr DLR, Inst Robot & Mechatron, D-82234 Oberpfaffenhofen, Germany..
    Ambrus, Rares
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL. KTH, Skolan för elektroteknik och datavetenskap (EECS), Centra, Centrum för autonoma system, CAS.
    Marton, Zoltan Csaba
    German Aerosp Ctr DLR, Inst Robot & Mechatron, D-82234 Oberpfaffenhofen, Germany..
    Wendt, Axel
    Robert Bosch, Corp Res, St Joseph, MI USA.;Robert Bosch, Corp Res, Gerlingen, Germany..
    Jensfelt, Patric
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL. KTH, Skolan för elektroteknik och datavetenskap (EECS), Centra, Centrum för autonoma system, CAS.
    Arras, Kai O.
    Robert Bosch, Corp Res, St Joseph, MI USA.;Robert Bosch, Corp Res, Gerlingen, Germany..
    Triebel, Rudolph
    German Aerosp Ctr DLR, Inst Robot & Mechatron, D-82234 Oberpfaffenhofen, Germany.;Tech Univ Munich, Dep Comp Sci, Munich, Germany..
    Semantic Labeling of Indoor Environments from 3D RGB Maps2018Ingår i: 2018 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA), IEEE Computer Society, 2018, s. 1871-1878Konferensbidrag (Refereegranskat)
    Abstract [en]

    We present an approach to automatically assign semantic labels to rooms reconstructed from 3D RGB maps of apartments. Evidence for the room types is generated using state-of-the-art deep-learning techniques for scene classification and object detection based on automatically generated virtual RGB views, as well as from a geometric analysis of the map's 3D structure. The evidence is merged in a conditional random field, using statistics mined from different datasets of indoor environments. We evaluate our approach qualitatively and quantitatively and compare it to related methods.

  • 16.
    Buda, Mateusz
    et al.
    Duke Univ, Dept Radiol, Sch Med, Durham, NC 27710 USA.;KTH Royal Inst Technol, Sch Elect Engn & Comp Sci, Stockholm, Sweden..
    Maki, Atsuto
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Mazurowski, Maciej A.
    Duke Univ, Dept Radiol, Sch Med, Durham, NC 27710 USA.;Duke Univ, Dept Elect & Comp Engn, Durham, NC USA..
    A systematic study of the class imbalance problem in convolutional neural networks2018Ingår i: Neural Networks, ISSN 0893-6080, E-ISSN 1879-2782, Vol. 106, s. 249-259Artikel i tidskrift (Refereegranskat)
    Abstract [en]

    In this study, we systematically investigate the impact of class imbalance on classification performance of convolutional neural networks (CNNs) and compare frequently used methods to address the issue. Class imbalance is a common problem that has been comprehensively studied in classical machine learning, yet very limited systematic research is available in the context of deep learning. In our study, we use three benchmark datasets of increasing complexity, MNIST, CIFAR-10 and ImageNet, to investigate the effects of imbalance on classification and perform an extensive comparison of several methods to address the issue: oversampling, undersampling, two-phase training, and thresholding that compensates for prior class probabilities. Our main evaluation metric is area under the receiver operating characteristic curve (ROC AUC) adjusted to multi-class tasks since overall accuracy metric is associated with notable difficulties in the context of imbalanced data. Based on results from our experiments we conclude that (i) the effect of class imbalance on classification performance is detrimental; (ii) the method of addressing class imbalance that emerged as dominant in almost all analyzed scenarios was oversampling; (iii) oversampling should be applied to the level that completely eliminates the imbalance, whereas the optimal undersampling ratio depends on the extent of imbalance; (iv) as opposed to some classical machine learning models, oversampling does not cause overfitting of CNNs; (v) thresholding should be applied to compensate for prior class probabilities when overall number of properly classified cases is of interest. 

  • 17.
    Butepage, Judith
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Cruciani, Silvia
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Kokic, Mia
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Welle, Michael
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Kragic, Danica
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    From Visual Understanding to Complex Object Manipulation2019Ingår i: Annual Review of Control, Robotics, and Autonomous Systems, Vol. 2, s. 161-179Artikel, forskningsöversikt (Refereegranskat)
    Abstract [en]

    Planning and executing object manipulation requires integrating multiple sensory and motor channels while acting under uncertainty and complying with task constraints. As the modern environment is tuned for human hands, designing robotic systems with similar manipulative capabilities is crucial. Research on robotic object manipulation is divided into smaller communities interested in, e.g., motion planning, grasp planning, sensorimotor learning, and tool use. However, few attempts have been made to combine these areas into holistic systems. In this review, we aim to unify the underlying mechanics of grasping and in-hand manipulation by focusing on the temporal aspects of manipulation, including visual perception, grasp planning and execution, and goal-directed manipulation. Inspired by human manipulation, we envision that an emphasis on the temporal integration of these processes opens the way for human-like object use by robots.

  • 18.
    Butepage, Judith
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Kjellström, Hedvig
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Kragic, Danica
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Anticipating many futures: Online human motion prediction and generation for human-robot interaction2018Ingår i: 2018 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA), IEEE COMPUTER SOC , 2018, s. 4563-4570Konferensbidrag (Refereegranskat)
    Abstract [en]

    Fluent and safe interactions of humans and robots require both partners to anticipate the others' actions. The bottleneck of most methods is the lack of an accurate model of natural human motion. In this work, we present a conditional variational autoencoder that is trained to predict a window of future human motion given a window of past frames. Using skeletal data obtained from RGB depth images, we show how this unsupervised approach can be used for online motion prediction for up to 1660 ms. Additionally, we demonstrate online target prediction within the first 300-500 ms after motion onset without the use of target specific training data. The advantage of our probabilistic approach is the possibility to draw samples of possible future motion patterns. Finally, we investigate how movements and kinematic cues are represented on the learned low dimensional manifold.

  • 19.
    Båberg, Fredrik
    et al.
    KTH, Skolan för datavetenskap och kommunikation (CSC), Robotik, perception och lärande, RPL. KTH, Skolan för datavetenskap och kommunikation (CSC), Centra, Centrum för Autonoma System, CAS.
    Petter, Ögren
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL. KTH, Skolan för elektroteknik och datavetenskap (EECS), Centra, Centrum för autonoma systen, CAS.
    Formation Obstacle Avoidance using RRT and Constraint Based Programming2017Ingår i: 2017 IEEE International Symposium on Safety, Security and Rescue Robotics (SSRR), IEEE conference proceedings, 2017, artikel-id 8088131Konferensbidrag (Refereegranskat)
    Abstract [en]

    In this paper, we propose a new way of doing formation obstacle avoidance using a combination of Constraint Based Programming (CBP) and Rapidly Exploring Random Trees (RRTs). RRT is used to select waypoint nodes, and CBP is used to move the formation between those nodes, reactively rotating and translating the formation to pass the obstacles on the way. Thus, the CBP includes constraints for both formation keeping and obstacle avoidance, while striving to move the formation towards the next waypoint. The proposed approach is compared to a pure RRT approach where the motion between the RRT waypoints is done following linear interpolation trajectories, which are less computationally expensive than the CBP ones. The results of a number of challenging simulations show that the proposed approach is more efficient for scenarios with high obstacle densities.

  • 20.
    Bütepage, Judith
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Generative models for action generation and action understanding2019Doktorsavhandling, sammanläggning (Övrigt vetenskapligt)
    Abstract [sv]

    Frågan om hur man bygger intelligenta maskiner väcker frågan om hur man kanrepresentera världen för att möjliggöra intelligent beteende. I naturen bygger en sådanrepresentation på samspelet mellan en organisms sensoriska intryck och handlingar.Kopplingar mellan sinnesintryck och handlingar gör att många komplexa beteendenkan uppstå naturligt. I detta arbete tar vi dessa sensorimotoriska kopplingar som eninspiration för att bygga robotarsystem som autonomt kan interagera med sin miljöoch med människor. Målet är att bana väg för robotarsystem som självständiga kan lärasig att kontrollera sina rörelser och relatera sina egen sensorimotoriska upplevelser tillobserverade mänskliga handlingar. Genom att relatera robotens rörelser och förståelsenav mänskliga handlingar, hoppas vi kunna underlätta smidig och intuitiv interaktionmellan robotar och människor.För att modellera robotens sensimotoriska kopplingar och mänskligt beteende an-vänder vi generativa modeller. Eftersom generativa modeller representerar en multiva-riat fördelning över relevanta variabler, är de tillräckligt flexibla för att uppfylla demkrav som vi ställer här. Generativa modeller kan representera variabler från olika mo-daliteter, modellera temporala dynamiska system, modellera latenta variabler och re-presentera variablers varians - alla dessa egenskaper är nödvändiga för att modellerasensorimotoriska kopplingar. Genom att använda generativa modeller kan vi förutseutvecklingen av variablerna i framtiden, vilket är viktigt för att ta intelligenta beslut.Vi presenterar arbete som går i två riktningar. För det första kommer vi att fokuserapå självständig inlärande av rörelse kontroll med hjälp av sensorimotoriska kopplingar.Baserat på Gaussian Process forward modeller visar vi hur roboten kan röra på sigmot ett mål med hjälp av planeringstekniker eller förstärkningslärande. För det andrapresenterar vi ett antal tillvägagångssätt för att modellera mänsklig aktivitet, allt frånatt förutse hur människan kommer röra på sig till att inkludera semantisk information.Här använder vi djupa generativa modeller, nämligen Variational Autoencoders, föratt modellera 3D-skelettpositionen av människor över tid och, om så krävs, inkluderasemantisk information. Dessa två ideer kombineras sedan för att hjälpa roboten attinteragera med människan.Våra experiment fokuserar på realtidsscenarion, både när det gäller robot experi-ment och mänsklig aktivitet modellering. Eftersom många verkliga scenarier inte hartillgång till avancerade sensorer, kräver vi att våra modeller hanterar osäkerhet. Yt-terligare krav är maskininlärningsmodeller som inte behöver mycket data, att systemsfungerar i realtid och under säkerhetskrav. Vi visar hur generativa modeller av senso-rimotoriska kopplingar kan hantera dessa krav i våra experiment tillfredsställande.

  • 21.
    Bütepage, Judith
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Kjellström, Hedvig
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Kragic, Danica
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    A Probabilistic Semi-Supervised Approach to Multi-Task Human Activity ModelingManuskript (preprint) (Övrigt vetenskapligt)
    Abstract [en]

    Human behavior is a continuous stochastic spatio-temporal process which is governed by semantic actions and affordances as well as latent factors. Therefore, video-based human activity modeling is concerned with a number of tasks such as inferring current and future semantic labels, predicting future continuous observations as well as imagining possible future label and feature sequences. In this paper we present a semi-supervised probabilistic deep latent variable model that can represent both discrete labels and continuous observations as well as latent dynamics over time. This allows the model to solve several tasks at once without explicit fine-tuning. We focus here on the tasks of action classification, detection, prediction and anticipation as well as motion prediction and synthesis based on 3D human activity data recorded with Kinect. We further extend the model to capture hierarchical label structure and to model the dependencies between multiple entities, such as a human and objects. Our experiments demonstrate that our principled approach to human activity modeling can be used to detect current and anticipate future semantic labels and to predict and synthesize future label and feature sequences. When comparing our model to state-of-the-art approaches, which are specifically designed for e.g. action classification, we find that our probabilistic formulation outperforms or is comparable to these task specific models.

  • 22.
    Caccamo, Sergio
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Enhancing geometric maps through environmental interactions2018Doktorsavhandling, sammanläggning (Övrigt vetenskapligt)
    Abstract [en]

    The deployment of rescue robots in real operations is becoming increasingly commonthanks to recent advances in AI technologies and high performance hardware. Rescue robots can now operate for extended period of time, cover wider areas andprocess larger amounts of sensory information making them considerably more usefulduring real life threatening situations, including both natural or man-made disasters.

    In this thesis we present results of our research which focuses on investigating ways of enhancing visual perception for Unmanned Ground Vehicles (UGVs) through environmental interactions using different sensory systems, such as tactile sensors and wireless receivers.

    We argue that a geometric representation of the robot surroundings built upon vision data only, may not suffice in overcoming challenging scenarios, and show that robot interactions with the environment can provide a rich layer of new information that needs to be suitably represented and merged into the cognitive world model. Visual perception for mobile ground vehicles is one of the fundamental problems in rescue robotics. Phenomena such as rain, fog, darkness, dust, smoke and fire heavily influence the performance of visual sensors, and often result in highly noisy data, leading to unreliable or incomplete maps.

    We address this problem through a collection of studies and structure the thesis as follow:Firstly, we give an overview of the Search & Rescue (SAR) robotics field, and discuss scenarios, hardware and related scientific questions.Secondly, we focus on the problems of control and communication. Mobile robotsrequire stable communication with the base station to exchange valuable information. Communication loss often presents a significant mission risk and disconnected robotsare either abandoned, or autonomously try to back-trace their way to the base station. We show how non-visual environmental properties (e.g. the WiFi signal distribution) can be efficiently modeled using probabilistic active perception frameworks based on Gaussian Processes, and merged into geometric maps so to facilitate the SAR mission. We then show how to use tactile perception to enhance mapping. Implicit environmental properties such as the terrain deformability, are analyzed through strategic glancesand touches and then mapped into probabilistic models.Lastly, we address the problem of reconstructing objects in the environment. Wepresent a technique for simultaneous 3D reconstruction of static regions and rigidly moving objects in a scene that enables on-the-fly model generation. Although this thesis focuses mostly on rescue UGVs, the concepts presented canbe applied to other mobile platforms that operates under similar circumstances. To make sure that the suggested methods work, we have put efforts into design of user interfaces and the evaluation of those in user studies.

  • 23.
    Caccamo, Sergio Salvatore
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Joint 3D Reconstruction of a Static Scene and Moving Objects2017Ingår i: Proceedings of the 2017International Conference on 3D Vision (3DV’17), 2017Konferensbidrag (Övrigt vetenskapligt)
  • 24.
    Carlsson, Stefan
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Azizpour, Hossein
    KTH, Skolan för datavetenskap och kommunikation (CSC), Beräkningsvetenskap och beräkningsteknik (CST).
    Razavian, Ali Sharif
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Sullivan, Josephine
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Smith, Kevin
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Beräkningsvetenskap och beräkningsteknik (CST).
    The Preimage of Rectifier Network Activities2017Ingår i: International Conference on Learning Representations (ICLR), 2017Konferensbidrag (Refereegranskat)
    Abstract [en]

    The preimage of the activity at a certain level of a deep network is the set of inputs that result in the same node activity. For fully connected multi layer rectifier networks we demonstrate how to compute the preimages of activities at arbitrary levels from knowledge of the parameters in a deep rectifying network. If the preimage set of a certain activity in the network contains elements from more than one class it means that these classes are irreversibly mixed. This implies that preimage sets which are piecewise linear manifolds are building blocks for describing the input manifolds specific classes, ie all preimages should ideally be from the same class. We believe that the knowledge of how to compute preimages will be valuable in understanding the efficiency displayed by deep learning networks and could potentially be used in designing more efficient training algorithms.

  • 25.
    Carvalho, J. Frederico
    et al.
    KTH. KTH, CAS, RPL, Royal Inst Technol, Stocholm, Sweden..
    Vejdemo-Johansson, Mikael
    CUNY Coll Staten Isl, Math Dept, Staten Isl, NY 10314 USA.;CUNY, Grad Ctr, Comp Sci, New York, NY USA..
    Kragic, Danica
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL. KTH, CAS, RPL, Royal Inst Technol, Stocholm, Sweden..
    Pokorny, Florian T.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL. KTH, CAS, RPL, Royal Inst Technol, Stocholm, Sweden..
    Path Clustering with Homology Area2018Ingår i: 2018 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA), IEEE Computer Society, 2018, s. 7346-7353Konferensbidrag (Refereegranskat)
    Abstract [en]

    Path clustering has found many applications in recent years. Common approaches to this problem use aggregates of the distances between points to provide a measure of dissimilarity between paths which do not satisfy the triangle inequality. Furthermore, they do not take into account the topology of the space where the paths are embedded. To tackle this, we extend previous work in path clustering with relative homology, by employing minimum homology area as a measure of distance between homologous paths in a triangulated mesh. Further, we show that the resulting distance satisfies the triangle inequality, and how we can exploit the properties of homology to reduce the amount of pairwise distance calculations necessary to cluster a set of paths. We further compare the output of our algorithm with that of DTW on a toy dataset of paths, as well as on a dataset of real-world paths.

  • 26.
    Carvalho, Joao Frederico
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Vejdemo-Johansson, Mikael
    CUNY, Math Dept, Coll Staten Isl, New York, NY 10021 USA..
    Kragic, Danica
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Pokorny, Florian T.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    An algorithm for calculating top-dimensional bounding chains2018Ingår i: PEERJ COMPUTER SCIENCE, ISSN 2376-5992, artikel-id e153Artikel i tidskrift (Refereegranskat)
    Abstract [en]

    We describe the Coefficient-Flow algorithm for calculating the bounding chain of an (n-1)-boundary on an n-manifold-like simplicial complex S. We prove its correctness and show that it has a computational time complexity of O(vertical bar S(n-1)vertical bar) (where S(n-1) is the set of (n-1)-faces of S). We estimate the big-O coefficient which depends on the dimension of S and the implementation. We present an implementation, experimentally evaluate the complexity of our algorithm, and compare its performance with that of solving the underlying linear system.

  • 27.
    Carvalho, Joao Frederico
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL. KTH, Skolan för elektroteknik och datavetenskap (EECS), Centra, Centrum för autonoma system, CAS.
    Vejdemo-Johansson, Mikael
    CUNY College of Staten Island, Mathematics Department, New York, USA.
    Kragic, Danica
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL. KTH, Skolan för elektroteknik och datavetenskap (EECS), Centra, Centrum för autonoma system, CAS.
    Pokorny, Florian T.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL. KTH, Skolan för elektroteknik och datavetenskap (EECS), Centra, Centrum för autonoma system, CAS.
    Path Clustering with Homology Area2018Ingår i: 2018 IEEE International Conference on Robotics and Automation (ICRA), IEEE conference proceedings, 2018, s. 7346-7353Konferensbidrag (Refereegranskat)
    Abstract [en]

    Path clustering has found many applications in recent years. Common approaches to this problem use aggregates of the distances between points to provide a measure of dissimilarity between paths which do not satisfy the triangle inequality. Furthermore, they do not take into account the topology of the space where the paths are embedded. To tackle this, we extend previous work in path clustering with relative homology, by employing minimum homology area as a measure of distance between homologous paths in a triangulated mesh. Further, we show that the resulting distance satisfies the triangle inequality, and how we can exploit the properties of homology to reduce the amount of pairwise distance calculations necessary to cluster a set of paths. We further compare the output of our algorithm with that of DTW on a toy dataset of paths, as well as on a dataset of real-world paths.

  • 28.
    Chen, Xi
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Ghadirzadeh, Ali
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Folkesson, John
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Björkman, Mårten
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Jensfelt, Patric
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Deep Reinforcement Learning to Acquire Navigation Skills for Wheel-Legged Robots in Complex Environments2018Ingår i: 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2018Konferensbidrag (Refereegranskat)
    Abstract [en]

    Mobile robot navigation in complex and dynamic environments is a challenging but important problem. Reinforcement learning approaches fail to solve these tasks efficiently due to reward sparsities, temporal complexities and high-dimensionality of sensorimotor spaces which are inherent in such problems. We present a novel approach to train action policies to acquire navigation skills for wheel-legged robots using deep reinforcement learning. The policy maps height-map image observations to motor commands to navigate to a target position while avoiding obstacles. We propose to acquire the multifaceted navigation skill by learning and exploiting a number of manageable navigation behaviors. We also introduce a domain randomization technique to improve the versatility of the training samples. We demonstrate experimentally a significant improvement in terms of data-efficiency, success rate, robustness against irrelevant sensory data, and also the quality of the maneuver skills.

  • 29.
    Colledanchise, Michele
    et al.
    Istituto Italiano di Tecnologia - IIT, Genoa, Italy.
    Almeida, Diogo
    Ögren, Petter
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Towards Blended Reactive Planning and Acting using Behavior Trees2019Konferensbidrag (Refereegranskat)
    Abstract [en]

    In this paper, we show how a planning algorithm can be used to automatically create and update a Behavior Tree (BT), controlling a robot in a dynamic environment. The planning part of the algorithm is based on the idea of back chaining. Starting from a goal condition we iteratively select actions to achieve that goal, and if those actions have unmet preconditions, they are extended with actions to achieve them in the same way. The fact that BTs are inherently modular and reactive makes the proposed solution blend acting and planning in a way that enables the robot to effectively react to external disturbances. If an external agent undoes an action the robot re- executes it without re-planning, and if an external agent helps the robot, it skips the corresponding actions, again without re- planning. We illustrate our approach in two different robotics scenarios.

  • 30. Colledancise, Michele
    et al.
    Parasuraman, Ramviyas Nattanmai
    Petter, Ögren
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Learning of Behavior Trees for Autonomous Agents2018Ingår i: IEEE Transactions on Games, ISSN 2475-1502Artikel i tidskrift (Refereegranskat)
    Abstract [en]

    In this paper, we study the problem of automatically synthesizing a successful Behavior Tree (BT) in an a-priori unknown dynamic environment. Starting with a given set of behaviors, a reward function, and sensing in terms of a set of binary conditions, the proposed algorithm incrementally learns a switching structure in terms of a BT, that is able to handle the situations encountered. Exploiting the fact that BTs generalize And-Or-Trees and also provide very natural chromosome mappings for genetic pro- gramming, we combine the long term performance of Genetic Programming with a greedy element and use the And-Or analogy to limit the size of the resulting structure. Finally, earlier results on BTs enable us to provide certain safety guarantees for the resulting system. Using the testing environment Mario AI we compare our approach to alternative methods for learning BTs and Finite State Machines. The evaluation shows that the proposed approach generated solutions with better performance, and often fewer nodes than the other two methods.

  • 31.
    Correia, Filipa
    et al.
    Univ Lisbon, INESC ID, Inst Super Tecn, Lisbon, Portugal..
    Mascarenhas, Samuel F.
    Univ Lisbon, INESC ID, Inst Super Tecn, Lisbon, Portugal..
    Gomes, Samuel
    Univ Lisbon, INESC ID, Inst Super Tecn, Lisbon, Portugal..
    Arriaga, Patricia
    CIS IUL, Inst Univ Lisboa ISCTE IUL, Lisbon, Portugal..
    Leite, Iolanda
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Prada, Rui
    Univ Lisbon, INESC ID, Inst Super Tecn, Lisbon, Portugal..
    Melo, Francisco S.
    Univ Lisbon, INESC ID, Inst Super Tecn, Lisbon, Portugal..
    Paiva, Ana
    Univ Lisbon, INESC ID, Inst Super Tecn, Lisbon, Portugal..
    Exploring Prosociality in Human-Robot Teams2019Ingår i: HRI '19: 2019 14TH ACM/IEEE INTERNATIONAL CONFERENCE ON HUMAN-ROBOT INTERACTION, IEEE , 2019, s. 143-151Konferensbidrag (Refereegranskat)
    Abstract [en]

    This paper explores the role of prosocial behaviour when people team up with robots in a collaborative game that presents a social dilemma similar to a public goods game. An experiment was conducted with the proposed game in which each participant joined a team with a prosocial robot and a selfish robot. During 5 rounds of the game, each player chooses between contributing to the team goal (cooperate) or contributing to his individual goal (defect). The prosociality level of the robots only affects their strategies to play the game, as one always cooperates and the other always defects. We conducted a user study at the office of a large corporation with 70 participants where we manipulated the game result (winning or losing) in a between-subjects design. Results revealed two important considerations: (1) the prosocial robot was rated more positively in terms of its social attributes than the selfish robot, regardless of the game result; (2) the perception of competence, the responsibility attribution (blame/credit), and the preference for a future partner revealed significant differences only in the losing condition. These results yield important concerns for the creation of robotic partners, the understanding of group dynamics and, from a more general perspective, the promotion of a prosocial society.

  • 32.
    Cruciani, Silvia
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Smith, Christian
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Integrating Path Planning and Pivoting2018Konferensbidrag (Refereegranskat)
  • 33.
    Cruciani, Silvia
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Smith, Christian
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Integrating Path Planning and Pivoting2018Ingår i: 2018 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS (IROS) / [ed] Maciejewski, AA Okamura, A Bicchi, A Stachniss, C Song, DZ Lee, DH Chaumette, F Ding, H Li, JS Wen, J Roberts, J Masamune, K Chong, NY Amato, N Tsagwarakis, N Rocco, P Asfour, T Chung, WK Yasuyoshi, Y Sun, Y Maciekeski, T Althoefer, K AndradeCetto, J Chung, WK Demircan, E Dias, J Fraisse, P Gross, R Harada, H Hasegawa, Y Hayashibe, M Kiguchi, K Kim, K Kroeger, T Li, Y Ma, S Mochiyama, H Monje, CA Rekleitis, I Roberts, R Stulp, F Tsai, CHD Zollo, L, IEEE , 2018, s. 6601-6608Konferensbidrag (Refereegranskat)
    Abstract [en]

    In this work we propose a method for integrating motion planning and in-hand manipulation. Commonly addressed as a separate step from the final execution, in-hand manipulation allows the robot to reorient an object within the end-effector for the successful outcome of the goal task. A joint achievement of repositioning the object and moving the manipulator towards its desired final pose saves time in the execution and introduces more flexibility in the system. We address this problem using a pivoting strategy (i.e. in-hand rotation) for repositioning the object and we integrate this strategy with a path planner for the execution of a complex task. This method is applied on a Baxter robot and its efficacy is shown by experimental results.

  • 34.
    Cruciani, Silvia
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Smith, Christian
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Kragic, Danica
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Hang, Kaiyu
    Dexterous Manipulation Graphs2018Konferensbidrag (Refereegranskat)
  • 35.
    Cruciani, Silvia
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Smith, Christian
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Kragic, Danica
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Hang, Kaiyu
    Hong Kong Univ Sci & Technol, Dept Comp Sci & Engn, Hong Kong, Peoples R China.;Hong Kong Univ Sci & Technol, Inst Adv Study, Hong Kong, Peoples R China..
    Dexterous Manipulation Graphs2018Ingår i: 2018 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS (IROS) / [ed] Maciejewski, AA Okamura, A Bicchi, A Stachniss, C Song, DZ Lee, DH Chaumette, F Ding, H Li, JS Wen, J Roberts, J Masamune, K Chong, NY Amato, N Tsagwarakis, N Rocco, P Asfour, T Chung, WK Yasuyoshi, Y Sun, Y Maciekeski, T Althoefer, K AndradeCetto, J Chung, WK Demircan, E Dias, J Fraisse, P Gross, R Harada, H Hasegawa, Y Hayashibe, M Kiguchi, K Kim, K Kroeger, T Li, Y Ma, S Mochiyama, H Monje, CA Rekleitis, I Roberts, R Stulp, F Tsai, CHD Zollo, L, IEEE , 2018, s. 2040-2047Konferensbidrag (Refereegranskat)
    Abstract [en]

    We propose the Dexterous Manipulation Graph as a tool to address in-hand manipulation and reposition an object inside a robot's end-effector. This graph is used to plan a sequence of manipulation primitives so to bring the object to the desired end pose. This sequence of primitives is translated into motions of the robot to move the object held by the end-effector. We use a dual arm robot with parallel grippers to test our method on a real system and show successful planning and execution of in-hand manipulation.

  • 36.
    Djikic, Addi
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Segmentation and Depth Estimation of Urban Road Using Monocular Camera and Convolutional Neural Networks2018Självständigt arbete på avancerad nivå (masterexamen), 20 poäng / 30 hpStudentuppsats (Examensarbete)
    Abstract [sv]

    Deep learning för säkra autonoma transportsystem framträder mer och mer inom forskning och utveckling. Snabb och robust uppfattning om miljön för autonoma fordon kommer att vara avgörande för framtida navigering inom stadsområden med stor trafiksampel.

    I denna avhandling härleder vi en ny form av ett neuralt nätverk som vi kallar AutoNet. Där nätverket är designat som en autoencoder för pixelvis djupskattning av den fria körbara vägytan för stadsområden, där nätverket endast använder sig av en monokulär kamera och dess bilder. Det föreslagna nätverket för djupskattning hanteras som ett regressions problem. AutoNet är även konstruerad som ett klassificeringsnätverk som endast ska klassificera och segmentera den körbara vägytan i realtid med monokulärt seende. Där detta är hanterat som ett övervakande klassificerings problem, som även visar sig vara en mer simpel och mer robust lösning för att hitta vägyta i stadsområden.

    Vi implementerar även ett av de främsta neurala nätverken ENet för jämförelse. ENet är utformat för snabb semantisk segmentering i realtid, med hög prediktions- hastighet. Evalueringen av nätverken visar att AutoNet utklassar ENet i varje prestandamätning för noggrannhet, men visar sig vara långsammare med avseende på antal bilder per sekund. Olika optimeringslösningar föreslås för framtida arbete, för hur man ökar nätverk-modelens bildhastighet samtidigt som man behåller robustheten.All träning och utvärdering görs på Cityscapes dataset. Ny data för träning samt evaluering för djupskattningen för väg skapas med ett nytt tillvägagångssätt, genom att kombinera förberäknade djupkartor med semantiska etiketter för väg. Datainsamling med ett Scania-fordon utförs även, monterad med en monoculär kamera för att testa den slutgiltiga härleda modellen.

    Det föreslagna nätverket AutoNet visar sig vara en lovande topp-presterande modell i fråga om djupuppskattning för väg samt vägklassificering för stadsområden.

  • 37.
    Ericson, Ludvig
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Flying High: Deep Imitation Learning of Optimal Control for Unmanned Aerial Vehicles2018Självständigt arbete på avancerad nivå (masterexamen), 20 poäng / 30 hpStudentuppsats (Examensarbete)
    Abstract [sv]

    Optimal kontroll för multikoptrar är ett svårt problem delvis på grund av den vanligtvis låga processorkraft som styrdatorn har, samt att multikoptrar är synnerligen instabila system. Djup imitationsinlärning är en metod där en beräkningstung expert approximeras med ett neuralt nätverk, och gör det därigenom möjligt att köra dessa tunga experter som realtidskontroll för multikoptrar. I detta arbete undersöks prestandan och pålitligheten hos djup imitationsinlärning med banoptimering som expert genom att först definiera en dynamisk modell för multikoptrar, sedan applicera en välkänd banoptimeringsmetod på denna modell, och till sist approximera denna expert med imitationsinlärning. Vår undersökning visar att nätverksarkitekturen spelar en avgörande roll för karakteristiken hos både inlärningsprocessens konvergenstid, såväl som den resulterande kontrollpolicyn, och att särskilt banoptimering kan nyttjas för att förbättra konvergenstiden hos imitationsinlärningen. Till sist påpekar vi några begränsningar hos metoden och identifierar särskilt intressanta områden för framtida studier.

  • 38.
    Eriksson, Sara
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Medieteknik och interaktionsdesign, MID.
    Unander-Scharin, Åsa
    Luleå University of Technology.
    Trichon, Vincent
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Medieteknik och interaktionsdesign, MID.
    Unander-Scharin, Carl
    Karlstad University.
    Kjellström, Hedvig
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Höök, Kristina
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Medieteknik och interaktionsdesign, MID.
    Dancing with Drones: Crafting Novel Artistic Expressions through Intercorporeality2019Ingår i: Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems, New York, NY USA, 2019, s. 617:1-617:12Konferensbidrag (Refereegranskat)
  • 39.
    Ghadirzadeh, Ali
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Sensorimotor Robot Policy Training using Reinforcement Learning2018Doktorsavhandling, sammanläggning (Övrigt vetenskapligt)
    Abstract [sv]

    Robotar förekommer alltmer i dagens samhälle och tar över många av de uppgifter som tidigare betraktades som tillägnade människor. Flera av dessa uppgifter, som att exempelvis autonomt köra en bil, samarbeta med människor i dynamiska och föränderliga arbetsmiljöer, samt att utföra sysslor i hemmet, kräver mänsklig intelligens för att roboten ska uppfatta världen och agera på lämpligt sätt. I denna avhandling utgår vi ifrån ett annat tillvägagångssätt jämfört med de klassiska metoder för skapande av robotsystem som tidigare ofta byggde på en så kallad perception-then-action paradigm. Vi utformar strategier för val av robotaktioner genom att utgå ifrån att det finns ett önsesidigt beroende mellan perception och aktion, där perception kommer före aktion, samtidigt som aktion är nödvändigt för perception. Huvudhypotesen är att komplexa robotbeteenden kommer som ett resultat av att roboten lär sig bemästra så kallade sensorimotorkopplingar (SMC), dvs regelbundenheter mellan motoriska aktioner och dess motsvarande förändringar i sensoriska observationer, där SMC:ar kan ses som byggblock för komplexa beteenden. Vi utarbetar och undersöker denna hypotes genom att avsiktligt utforma en handfull robotexperiment där en robots kunskaper helt förvärvas utifrån sensorimotoriska data, utan intervention av mänskliga experter för analytisk modellering eller kalibreringar. Under sådana omständigheter är så kallad reinforcement learning (RL) en lämplig paradigm för val av aktioner, en paradigm helt baserad på sensoriska data och utförda motoraktioner, utan krav på handgjorda representationer av världen på hög nivå. Denna paradigm kan utnyttjas för att generera utforskande rörelsemönster och förstärka de sensorimotorkopplingar som leder till framgång för i viss given uppgift. Det finns dock flera faktorer som kompicerar sådan rent datadriven inlärning av beteenden, såsom den sensorimotoriska datans höga dimensionalitet, den fysiska uppgiftens komplexa dynamik, bristen och tvetydigheten i de experiment som leder till positiva utfall, den begränsade mängd experiment som kan göras på en verklig robot och säkerhetsaspekter. De bidrag som introduceras i denna avhandling avser att hantera ovannämnda problem, genom att skapa ramverk för inlärning som gör det möjligt för en robot att integrera sensorimotordata för inlärning av stratieger för val av aktioner. De föreslagna ramverkens effektivitet demonsteras genom att utvärdera metoder på ett antal verkliga robotuppgifter och illustrera metodernas lämplighet för inlärning av olika färdigheter som kräver sekvenser av aktioner utifrån högdimensionell sensorimotorisk data, trots en begränsad mängd experiment med positivt utfall.

  • 40.
    Guin, Agneev
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Terrain Classification to find Drivable Surfaces using Deep Neural Networks: Semantic segmentation for unstructured roads combined with the use of Gabor filters to determine drivable regions trained on a small dataset2018Självständigt arbete på avancerad nivå (masterexamen), 20 poäng / 30 hpStudentuppsats (Examensarbete)
    Abstract [sv]

    Autonoma fordon står inför olika utmaningar under svåra terrängförhållanden som landsbygds- eller skogsvägar på grund av bristen av körfältinformation, vägskyltar och trafikljus. I denna avhandling undersöker vi ett nytt tillvägagångssätt att använda Djupa Neurala Nätverk (DNN) för att klassificera terrängytor utifrån deras körbarhet i syfte att stödja autonom navigering i ostrukturerade miljöer.Till exempel kan terrängytor klassificeras som asfalt, grus, gräs, lera, snö etc.

    Bilder från kameran monterad på en gruvbil användes för att utföra semantisk segmentering och klassificera vägytor. Bilderna delades manuellt upp i träningsset på 16 samt 9 klasser för alla relevanta klasser respektive körbara klasser. Ett litet men mångsidigt dataset med 100 bilder förstärktes med närliggande bilder från videoklippen för att expandera detta dataset. Neurala nätverk användes för att testa prestandan hos klassificeringen under dessa terrängförhållanden. Det förtränade nätverket AlexNet jämfördes med nätverken utan träning. Gaborfilter, kända för att särskilja texturerade ytor, användes vidare för att förbättra resultaten av det neurala nätverket.

    Experimenten visar att förtränade nätverk presterar bra med små dataset och många klasser. En kombination av Gaborfilter med förtränade nätverk kan skapa en pålitlig navigationsväg under svåra terrängförhållanden. Även om resultaten verkar positiva för bilder som liknar träningsbildscenen presterar nätverken inte bra i andra situationer. Även om testen tyder på att stora dataset krävs för tillförlitliga resultat, är detta ett steg närmare att göra de autonoma bilarna körbara i svåra terrängförhållanden.

  • 41.
    Guo, Meng
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Centra, ACCESS Linnaeus Centre. KTH, Skolan för elektroteknik och datavetenskap (EECS), Centra, Centrum för autonoma systen, CAS.
    Boskos, Dimitris
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Centra, ACCESS Linnaeus Centre. KTH, Skolan för elektroteknik och datavetenskap (EECS), Centra, Centrum för autonoma systen, CAS.
    Tumova, Jana
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Dimarogonas, Dimos V.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Centra, ACCESS Linnaeus Centre. KTH, Skolan för elektroteknik och datavetenskap (EECS), Centra, Centrum för autonoma systen, CAS.
    Distributed hybrid control synthesis for multi-agent systems from high-level specifications2018Ingår i: Control Subject to Computational and Communication Constraints, Springer Verlag , 2018, 475, s. 241-260Kapitel i bok, del av antologi (Refereegranskat)
    Abstract [en]

    Current control applications necessitate in many cases the consideration of systems with multiple interconnected components. These components/agents may need to fulfill high-level tasks at a discrete planning layer and also coupled constraints at the continuous control layer. Toward this end, the need for combined decentralized control at the continuous layer and planning at the discrete layer becomes apparent. While there are approaches that handle the problem in a top-down centralized manner, decentralized bottom-up approaches have not been pursued to the same extent. We present here some of our results for the problem of combined, hybrid control and task planning from high-level specifications for multi-agent systems in a bottom-up manner. In the first part, we present some initial results on extending the necessary notion of abstractions to multi-agent systems in a distributed fashion. We then consider a setup where agents are assigned individual tasks in the form of linear temporal logic (LTL) formulas and derive local task planning strategies for each agent. In the last part, the problem of combined distributed task planning and control under coupled continuous constraints is further considered.

  • 42.
    Hamesse, Charles
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Simultaneous Measurement Imputation and Rehabilitation Outcome Prediction for Achilles Tendon Rupture2018Självständigt arbete på avancerad nivå (masterexamen), 20 poäng / 30 hpStudentuppsats (Examensarbete)
    Abstract [sv]

    Achilles tendonbrott (Achilles Tendon Rupture, ATR) är en av de typiska mjukvävnadsskadorna. Rehabilitering efter sådana muskuloskeletala skador förblir en långvarig process med ett mycket variet resultat. Att kunna förutsäga rehabiliteringsresultat exakt är avgörande för beslutsfattande stöduppdrag. I detta arbete designar vi en probabilistisk modell för att förutse rehabiliteringsresultat för ATR med hjälp av en klinisk kohort med många saknade poster. Vår modell är tränad från början till slutet för att samtidigt förutsäga de saknade inmatningarna och rehabiliteringsresultat. Vi utvärderar vår modell och jämför med flera baslinjer, inklusive flerstegsmetoder. Experimentella resultat visar överlägsenheten hos vår modell över dessa flerstadiga tillvägagångssätt med olika dataimuleringsmetoder för ATR rehabiliterings utfalls prognos.

  • 43.
    Hamesse, Charles
    et al.
    KTH.
    Ackermann, P.
    Kjellström, Hedvig
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Zhang, C.
    Simultaneous measurement imputation and outcome prediction for achilles tendon rupture rehabilitation2018Ingår i: CEUR Workshop Proceedings, CEUR-WS , 2018, Vol. 2142, s. 82-86Konferensbidrag (Refereegranskat)
    Abstract [en]

    Achilles Tendon Rupture (ATR) is one of the typical soft tissue injuries. Accurately predicting the rehabilitation outcome of ATR using noisy measurements with missing entries is crucial for treatment decision support. In this work, we design a probabilistic model that simultaneously predicts the missing measurements and the rehabilitation outcome in an end-to-end manner. We evaluate our model and compare it with multiple baselines including multi-stage methods using an ATR clinical cohort. Experimental results demonstrate the superiority of our model for ATR rehabilitation outcome prediction.

  • 44.
    Hamesse, Charles
    et al.
    KTH. Royal Military Academy, Brussels, Belgium.
    Tu, Ruibo
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Ackermann, Paul
    Karolinska University Hospital, Stockholm, Sweden.
    Kjellström, Hedvig
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Zhang, Cheng
    Microsoft Research, Cambridge, UK.
    Simultaneous Measurement Imputation and Outcome Prediction for Achilles Tendon Rupture Rehabilitation2019Ingår i: Proceedings of Machine Learning Research 106, 2019Konferensbidrag (Refereegranskat)
    Abstract [en]

    Achilles Tendon Rupture (ATR) is one of the typical soft tissue injuries. Rehabilitation after such a musculoskeletal injury remains a prolonged process with a very variable outcome. Accurately predicting rehabilitation outcome is crucial for treatment decision support. However, it is challenging to train an automatic method for predicting the AT Rrehabilitation outcome from treatment data, due to a massive amount of missing entries in the data recorded from ATR patients, as well as complex nonlinear relations between measurements and outcomes. In this work, we design an end-to-end probabilistic framework to impute missing data entries and predict rehabilitation outcomes simultaneously. We evaluate our model on a real-life ATR clinical cohort, comparing with various baselines. The proposed method demonstrates its clear superiority over traditional methods which typically perform imputation and prediction in two separate stages.

  • 45.
    Hang, Kaiyu
    et al.
    Yale Univ, Dept Mech Engn & Mat Sci, New Haven, CT 06520 USA..
    Lyu, Ximin
    Hong Kong Univ Sci & Technol, Hong Kong, Peoples R China..
    Song, Haoran
    Hong Kong Univ Sci & Technol, Hong Kong, Peoples R China..
    Stork, Johannes A.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL. Örebro Univ, Ctr Appl Autonomous Sensor Syst AASS, Örebro, Sweden.
    Dollar, Aaron M.
    Yale Univ, Dept Mech Engn & Mat Sci, New Haven, CT 06520 USA..
    Kragic, Danica
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Zhang, Fu
    Univ Hong Kong, Hong Kong, Peoples R China..
    Perching and resting-A paradigm for UAV maneuvering with modularized landing gears2019Ingår i: SCIENCE ROBOTICS, ISSN 2470-9476, Vol. 4, nr 28, artikel-id eaau6637Artikel i tidskrift (Refereegranskat)
    Abstract [en]

    Perching helps small unmanned aerial vehicles (UAVs) extend their time of operation by saving battery power. However, most strategies for UAV perching require complex maneuvering and rely on specific structures, such as rough walls for attaching or tree branches for grasping. Many strategies to perching neglect the UAV's mission such that saving battery power interrupts the mission. We suggest enabling UAVs with the capability of making and stabilizing contacts with the environment, which will allow the UAV to consume less energy while retaining its altitude, in addition to the perching capability that has been proposed before. This new capability is termed "resting." For this, we propose a modularized and actuated landing gear framework that allows stabilizing the UAV on a wide range of different structures by perching and resting. Modularization allows our framework to adapt to specific structures for resting through rapid prototyping with additive manufacturing. Actuation allows switching between different modes of perching and resting during flight and additionally enables perching by grasping. Our results show that this framework can be used to perform UAV perching and resting on a set of common structures, such as street lights and edges or corners of buildings. We show that the design is effective in reducing power consumption, promotes increased pose stability, and preserves large vision ranges while perching or resting at heights. In addition, we discuss the potential applications facilitated by our design, as well as the potential issues to be addressed for deployment in practice.

  • 46.
    Haseeb, Mohamed Abudulaziz Ali
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Parasuraman, Ramviyas
    Univ Georgia, Dept Comp Sci, Athens, GA 30602 USA..
    Wisture: Touch-Less Hand Gesture Classification in Unmodified Smartphones Using Wi-Fi Signals2019Ingår i: IEEE Sensors Journal, ISSN 1530-437X, E-ISSN 1558-1748, Vol. 19, nr 1, s. 257-267Artikel i tidskrift (Refereegranskat)
    Abstract [en]

    This paper introduces Wisture, a new online machine learning solution for recognizing touch-less hand gestures on a smartphone (mobile device). Wisture relies on the standard Wi-Fi received signal strength measurements, long short-term memory recurrent neural network (RNN) learning method, thresholding filters, and a traffic induction approach. Unlike other Wi-Fi-based gesture recognition methods, the proposed method does not require a modification of the device hardware or the operating system and performs the gesture recognition without interfering with the normal operation of other smartphone applications. We discuss the characteristics of Wisture and conduct extensive experiments to compare the performance of the RNN learning method against the state-of the-art machine learning solutions regarding both accuracy and efficiency. The experiments include a set of different scenarios with a change in spatial setup and network traffic between the smartphone and Wi-Fi access points. The results show that Wisture achieves an online gesture recognition accuracy of up to 93% (average 78%) in detecting and classifying three gestures.

  • 47.
    Hjelm, Martin
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Holistic Grasping: Affordances, Grasp Semantics, Task Constraints2019Doktorsavhandling, monografi (Övrigt vetenskapligt)
    Abstract [sv]

    De flesta av oss greppar objekt över tusen gånger per dag utan att ge det mycket eftertanke, vare sig det är att köra bil eller att dricka kaffe. Att lära robotar liknande förmågor gällande manipulering har varit ett mål för robotforskningen i årtionden.

    Anledningen till de långsamma framstegen ligger huvudsakligen i robotarnas underutvecklade sensorimotoriska system. Robothänder är ofta inflexibla, saknar möjligheter till komplexa konfigurationer jämfört med mänskliga händer. De haptiska sensorerna är rudimentära, vilket innebär betydligt lägre upplösning och känslighet vid beröring än hos människor.

    Den nuvarande forskningen har därför koncentrerat sig på tekniska lösningar som fokuserar på stabiliteten i det slutgiltiga greppet. Detta innebär att man formulerar komplexa funktioner och sökstrategier som beskriver interaktionen mellan robotens fingar och objektets yta. Med tanke på mängden variation i material, former och förmåga att deformera verkar det otänkbart att kunna analytiskt formulera en sådan generell hand-till-form-funktion. Många forskare har istället börjat fokusera på metoder baserade på lärande från data, likså den här avhandlingen.

    Människor har uppenbarligen en förmåga att synka hand till form. Hur vi greppar ett objekt bestäms emellertid främst av vad vi ska göra med objektet. Vi har en intern a priori uppfattning av hur handlingen, material och objektdynamiken styr grepp-processen. Vi har också en djupare förståelse för hur form och material relaterar till vår egen hand.

    Vi knyter samman alla dessa aspekter: vår förståelse för vad ett föremål kan användas för, hur den användningen påverkar vår interaktion med det och hur vår hand kan formas och placeras för att uppnå målet för manipulationen. För oss är grepp-processen inte bara en hand-till-form funktion utan en holistisk process där alla delar av kedjan är lika viktiga för resultatet. Innehållet i denna avhandling handlar således om hur man införlivar en sådan process i en robots planering av maipulationsmomentet.

    Vi kommer ta oss an den holistiska processen genom tre sammankopplade moduler. Den första är att låta roboten detektera interaktionsmöjligheter och förstå vilka delar av ett objekt som är viktiga för att möjliggöra interaktionen, en form a konceptualisering av interaktionsmöjligheten. Den andra modulen handlar om utlärning av grepp semantik, hur form relaterar till den egna handens  förmåga. Slutligen är sista modulen fokuserad på hur man lär roboten hur målet med interaktionen påverkar möjliga grepp på objektet.Vi kommer att utforska dessa tre delar genom begreppet affinitet. Detta begrepp translateras direkt till idén att vi lär oss en representation som sätter liknande typer av entiteter, det vill säga objekt, grepp, och mål, nära varandra i representationsrymden.

    Vi kommer att visa att idén om affinitetsbaserade representationer kommer att hjälpa roboten a resonera kring vilka delar av ett objekt som är viktiga för inferens, vilka grepp och mål som liknar varandra och hur de olika kategorierna relaterar till varandra. Slutligen kommer ett affinitetsbaserat tillvägagångssätt att hjälpa oss att knyta samman alla delar i en demonstrationen av en holistisk grepp-process.

  • 48. Holesovsky, Ondrej
    et al.
    Maki, Atsuto
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Compact ConvNets with Ternary Weights and Binary Activations2018Konferensbidrag (Refereegranskat)
    Abstract [en]

    Compact convolutional neural network (CNN) architectures with ternary weights and binary activations is a combination of methods suitable for making neural networks more efficient. We show that the combination of ternary weights and depthwise separable convolutions on the CIFAR-10 benchmark can yield a small neural network of size 32kB and 83.70% test accuracy. We present a novel dithering binary activation which we expected to improve accuracy of networks with binary activations by randomizing quantization error. This work presents the outcome of our experiments which show that it brings only mild improvements. A compact SqueezeNet network with ternary weights and binary activations is more accurate than the same network with binary weights. Nevertheless, the accuracy gap to its full precision variant remains large.

  • 49.
    Irfan, Bahar
    et al.
    Univ Plymouth, Ctr Robot & Neural Syst, Plymouth, Devon, England..
    Ramachandran, Aditi
    Yale Univ, Social Robot Lab, New Haven, CT 06520 USA..
    Spaulding, Samuel
    MIT, Personal Robots Grp, Media Lab, Cambridge, MA 02139 USA..
    Glas, Dylan F.
    Huawei, Futurewei Technol, Santa Clara, CA USA..
    Leite, Iolanda
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Koay, Kheng Lee
    Univ Hertfordshire, Adapt Syst Res Grp, Hatfield, Herts, England..
    Personalization in Long-Term Human-Robot Interaction2019Ingår i: HRI '19: 2019 14TH ACM/IEEE INTERNATIONAL CONFERENCE ON HUMAN-ROBOT INTERACTION, IEEE , 2019, s. 685-686Konferensbidrag (Refereegranskat)
    Abstract [en]

    For practical reasons, most human-robot interaction (HRI) studies focus on short-term interactions between humans and robots. However, such studies do not capture the difficulty of sustaining engagement and interaction quality across long-term interactions. Many real-world robot applications will require repeated interactions and relationship-building over the long term, and personalization and adaptation to users will be necessary to maintain user engagement and to build rapport and trust between the user and the robot. This full-day workshop brings together perspectives from a variety of research areas, including companion robots, elderly care, and educational robots, in order to provide a forum for sharing and discussing innovations, experiences, works-in-progress, and best practices which address the challenges of personalization in long-term HRI.

  • 50.
    Karlsson, Jesper
    et al.
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Tumova, Jana
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
    Decentralized Dynamic Multi-Vehicle Routing via Fast Marching Method2018Ingår i: 2018 European Control Conference, ECC 2018, Institute of Electrical and Electronics Engineers (IEEE), 2018, s. 739-745, artikel-id 8550222Konferensbidrag (Refereegranskat)
    Abstract [en]

    While centralized approaches to multi-vehicle routing problems typically provide provably optimal solutions, they do not scale well. In this paper, an algorithm for decentralized multi-vehicle routing is introduced that is often associated with significantly lower computational demands, but does not sacrifice the optimality of the found solution. In particular, we consider a fleet of autonomous vehicles traversing a road network that need to service a potentially infinite set of gradually appearing travel requests specified by their pick-up and drop-off points. The proposed algorithm synthesizes optimal assignment of the travel requests to the vehicles as well as optimal routes by utilizing Fast Marching Method (FMM) that restricts the search for the optimal assignment to a local subnetwork as opposed to the global road network. Several illustrative case studies are presented to demonstrate the effectiveness and efficiency of the approach.

123 1 - 50 av 124
RefereraExporteraLänk till träfflistan
Permanent länk
Referera
Referensformat
  • apa
  • harvard1
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf