Endre søk
RefereraExporteraLink to record
Permanent link

Direct link
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annet format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annet språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Self-learning and adaptation in a sensorimotor framework
KTH, Skolan för datavetenskap och kommunikation (CSC), Datorseende och robotik, CVAP.ORCID-id: 0000-0001-6738-9872
KTH, Skolan för datavetenskap och kommunikation (CSC), Datorseende och robotik, CVAP.
KTH, Skolan för datavetenskap och kommunikation (CSC), Datorseende och robotik, CVAP.ORCID-id: 0000-0003-2965-2953
KTH, Skolan för datavetenskap och kommunikation (CSC), Datorseende och robotik, CVAP.ORCID-id: 0000-0003-0579-3372
2016 (engelsk)Inngår i: Proceedings - IEEE International Conference on Robotics and Automation, IEEE conference proceedings, 2016, s. 551-558Konferansepaper, Publicerat paper (Fagfellevurdert)
Abstract [en]

We present a general framework to autonomously achieve the task of finding a sequence of actions that result in a desired state. Autonomy is acquired by learning sensorimotor patterns of a robot, while it is interacting with its environment. Gaussian processes (GP) with automatic relevance determination are used to learn the sensorimotor mapping. In this way, relevant sensory and motor components can be systematically found in high-dimensional sensory and motor spaces. We propose an incremental GP learning strategy, which discerns between situations, when an update or an adaptation must be implemented. The Rapidly exploring Random Tree (RRT∗) algorithm is exploited to enable long-term planning and generating a sequence of states that lead to a given goal; while a gradient-based search finds the optimum action to steer to a neighbouring state in a single time step. Our experimental results prove the suitability of the proposed framework to learn a joint space controller with high data dimensions (10×15). It demonstrates short training phase (less than 12 seconds), real-time performance and rapid adaptations capabilities.

sted, utgiver, år, opplag, sider
IEEE conference proceedings, 2016. s. 551-558
HSV kategori
Identifikatorer
URN: urn:nbn:se:kth:diva-197241DOI: 10.1109/ICRA.2016.7487178ISI: 000389516200069Scopus ID: 2-s2.0-84977498692ISBN: 9781467380263 (tryckt)OAI: oai:DiVA.org:kth-197241DiVA, id: diva2:1052583
Konferanse
2016 IEEE International Conference on Robotics and Automation, ICRA 2016, 16 May 2016 through 21 May 2016
Merknad

QC 20161207

Tilgjengelig fra: 2016-12-07 Laget: 2016-11-30 Sist oppdatert: 2019-08-16bibliografisk kontrollert
Inngår i avhandling
1. Sensorimotor Robot Policy Training using Reinforcement Learning
Åpne denne publikasjonen i ny fane eller vindu >>Sensorimotor Robot Policy Training using Reinforcement Learning
2018 (engelsk)Doktoravhandling, med artikler (Annet vitenskapelig)
Abstract [en]

Robots are becoming more ubiquitous in our society and taking over many tasks that were previously considered as human hallmarks. Many of these tasks, e.g., autonomously driving a car, collaborating with humans in dynamic and changing working conditions and performing household chores, require human-level intelligence to perceive the world and to act appropriately. In this thesis, we pursue a different approach compared to classical methods that often construct a robot controller based on the perception-then-action paradigm. We devise robotic action-selection policies by considering action-selection and perception processes as being intertwined, emphasizing that perception comes prior to action and action is key to perception. The main hypothesis is that complex robotic behaviors come as the result of mastering sensorimotor contingencies (SMCs), i.e., regularities between motor actions and associated changes in sensory observations, where SMCs can be seen as building blocks to skillful behaviors. We elaborate and investigate this hypothesis by deliberate design of frameworks which enable policy training merely based on data experienced by a robot,without intervention of human experts for analytical modelings or calibrations. In such circumstances, action policies can be obtained by reinforcement learning (RL) paradigm by making exploratory action decisions and reinforcing patterns of SMCs that lead to reward events for a given task. However, the dimensionality of sensorimotor spaces, complex dynamics of physical tasks, sparseness of reward events, limited amount of data from real-robot experiments, ambiguities of crediting past decisions and safety issues, which arise from exploratory actions of a physical robot, pose challenges to obtain a policy based on data-driven methods alone. In this thesis, we introduce our contributions to deal with the aforementioned issues by devising learning frameworks which endow a robot with the ability to integrate sensorimotor data to obtain action-selection policies. The effectiveness of the proposed frameworks is demonstrated by evaluating the methods on a number of real robotic tasks and illustrating the suitability of the methods to acquire different skills, to make sequential action-decisions in high-dimensional sensorimotor spaces, with limited data and sparse rewards.

Abstract [sv]

Robotar förekommer alltmer i dagens samhälle och tar över många av de uppgifter som tidigare betraktades som tillägnade människor. Flera av dessa uppgifter, som att exempelvis autonomt köra en bil, samarbeta med människor i dynamiska och föränderliga arbetsmiljöer, samt att utföra sysslor i hemmet, kräver mänsklig intelligens för att roboten ska uppfatta världen och agera på lämpligt sätt. I denna avhandling utgår vi ifrån ett annat tillvägagångssätt jämfört med de klassiska metoder för skapande av robotsystem som tidigare ofta byggde på en så kallad perception-then-action paradigm. Vi utformar strategier för val av robotaktioner genom att utgå ifrån att det finns ett önsesidigt beroende mellan perception och aktion, där perception kommer före aktion, samtidigt som aktion är nödvändigt för perception. Huvudhypotesen är att komplexa robotbeteenden kommer som ett resultat av att roboten lär sig bemästra så kallade sensorimotorkopplingar (SMC), dvs regelbundenheter mellan motoriska aktioner och dess motsvarande förändringar i sensoriska observationer, där SMC:ar kan ses som byggblock för komplexa beteenden. Vi utarbetar och undersöker denna hypotes genom att avsiktligt utforma en handfull robotexperiment där en robots kunskaper helt förvärvas utifrån sensorimotoriska data, utan intervention av mänskliga experter för analytisk modellering eller kalibreringar. Under sådana omständigheter är så kallad reinforcement learning (RL) en lämplig paradigm för val av aktioner, en paradigm helt baserad på sensoriska data och utförda motoraktioner, utan krav på handgjorda representationer av världen på hög nivå. Denna paradigm kan utnyttjas för att generera utforskande rörelsemönster och förstärka de sensorimotorkopplingar som leder till framgång för i viss given uppgift. Det finns dock flera faktorer som kompicerar sådan rent datadriven inlärning av beteenden, såsom den sensorimotoriska datans höga dimensionalitet, den fysiska uppgiftens komplexa dynamik, bristen och tvetydigheten i de experiment som leder till positiva utfall, den begränsade mängd experiment som kan göras på en verklig robot och säkerhetsaspekter. De bidrag som introduceras i denna avhandling avser att hantera ovannämnda problem, genom att skapa ramverk för inlärning som gör det möjligt för en robot att integrera sensorimotordata för inlärning av stratieger för val av aktioner. De föreslagna ramverkens effektivitet demonsteras genom att utvärdera metoder på ett antal verkliga robotuppgifter och illustrera metodernas lämplighet för inlärning av olika färdigheter som kräver sekvenser av aktioner utifrån högdimensionell sensorimotorisk data, trots en begränsad mängd experiment med positivt utfall.

sted, utgiver, år, opplag, sider
KTH Royal Institute of Technology, 2018. s. 80
Serie
TRITA-EECS-AVL ; 2018:47
Emneord
Reinforcement Learning, Artificial Intelligence, Robot Learning, Sensorimotor, Policy Training
HSV kategori
Forskningsprogram
Datalogi
Identifikatorer
urn:nbn:se:kth:diva-228295 (URN)978-91-7729-825-0 (ISBN)
Disputas
2018-06-11, F3, Lindstedtsvägen 26, Stockholm, 14:00 (engelsk)
Opponent
Veileder
Merknad

QC 20180521

Tilgjengelig fra: 2018-05-21 Laget: 2018-05-21 Sist oppdatert: 2018-05-21bibliografisk kontrollert
2. Generative models for action generation and action understanding
Åpne denne publikasjonen i ny fane eller vindu >>Generative models for action generation and action understanding
2019 (engelsk)Doktoravhandling, med artikler (Annet vitenskapelig)
Alternativ tittel[sv]
Generativa modeller för generering och förståelse av mänsklig aktivitet
Abstract [en]

The question of how to build intelligent machines raises the question of how to rep-resent the world to enable intelligent behavior. In nature, this representation relies onthe interplay between an organism’s sensory input and motor input. Action-perceptionloops allow many complex behaviors to arise naturally. In this work, we take these sen-sorimotor contingencies as an inspiration to build robot systems that can autonomouslyinteract with their environment and with humans. The goal is to pave the way for robotsystems that can learn motor control in an unsupervised fashion and relate their ownsensorimotor experience to observed human actions. By combining action generationand action understanding we hope to facilitate smooth and intuitive interaction betweenrobots and humans in shared work spaces.To model robot sensorimotor contingencies and human behavior we employ gen-erative models. Since generative models represent a joint distribution over relevantvariables, they are flexible enough to cover the range of tasks that we are tacklinghere. Generative models can represent variables that originate from multiple modali-ties, model temporal dynamics, incorporate latent variables and represent uncertaintyover any variable - all of which are features required to model sensorimotor contin-gencies. By using generative models, we can predict the temporal development of thevariables in the future, which is important for intelligent action selection.We present two lines of work. Firstly, we will focus on unsupervised learning ofmotor control with help of sensorimotor contingencies. Based on Gaussian Processforward models we demonstrate how the robot can execute goal-directed actions withthe help of planning techniques or reinforcement learning. Secondly, we present anumber of approaches to model human activity, ranging from pure unsupervised mo-tion prediction to including semantic action and affordance labels. Here we employdeep generative models, namely Variational Autoencoders, to model the 3D skeletalpose of humans over time and, if required, include semantic information. These twolines of work are then combined to implement physical human-robot interaction tasks.Our experiments focus on real-time applications, both when it comes to robot ex-periments and human activity modeling. Since many real-world scenarios do not haveaccess to high-end sensors, we require our models to cope with uncertainty. Additionalrequirements are data-efficient learning, because of the wear and tear of the robot andhuman involvement, online employability and operation under safety and complianceconstraints. We demonstrate how generative models of sensorimotor contingencies canhandle these requirements in our experiments satisfyingly.

Abstract [sv]

Frågan om hur man bygger intelligenta maskiner väcker frågan om hur man kanrepresentera världen för att möjliggöra intelligent beteende. I naturen bygger en sådanrepresentation på samspelet mellan en organisms sensoriska intryck och handlingar.Kopplingar mellan sinnesintryck och handlingar gör att många komplexa beteendenkan uppstå naturligt. I detta arbete tar vi dessa sensorimotoriska kopplingar som eninspiration för att bygga robotarsystem som autonomt kan interagera med sin miljöoch med människor. Målet är att bana väg för robotarsystem som självständiga kan lärasig att kontrollera sina rörelser och relatera sina egen sensorimotoriska upplevelser tillobserverade mänskliga handlingar. Genom att relatera robotens rörelser och förståelsenav mänskliga handlingar, hoppas vi kunna underlätta smidig och intuitiv interaktionmellan robotar och människor.För att modellera robotens sensimotoriska kopplingar och mänskligt beteende an-vänder vi generativa modeller. Eftersom generativa modeller representerar en multiva-riat fördelning över relevanta variabler, är de tillräckligt flexibla för att uppfylla demkrav som vi ställer här. Generativa modeller kan representera variabler från olika mo-daliteter, modellera temporala dynamiska system, modellera latenta variabler och re-presentera variablers varians - alla dessa egenskaper är nödvändiga för att modellerasensorimotoriska kopplingar. Genom att använda generativa modeller kan vi förutseutvecklingen av variablerna i framtiden, vilket är viktigt för att ta intelligenta beslut.Vi presenterar arbete som går i två riktningar. För det första kommer vi att fokuserapå självständig inlärande av rörelse kontroll med hjälp av sensorimotoriska kopplingar.Baserat på Gaussian Process forward modeller visar vi hur roboten kan röra på sigmot ett mål med hjälp av planeringstekniker eller förstärkningslärande. För det andrapresenterar vi ett antal tillvägagångssätt för att modellera mänsklig aktivitet, allt frånatt förutse hur människan kommer röra på sig till att inkludera semantisk information.Här använder vi djupa generativa modeller, nämligen Variational Autoencoders, föratt modellera 3D-skelettpositionen av människor över tid och, om så krävs, inkluderasemantisk information. Dessa två ideer kombineras sedan för att hjälpa roboten attinteragera med människan.Våra experiment fokuserar på realtidsscenarion, både när det gäller robot experi-ment och mänsklig aktivitet modellering. Eftersom många verkliga scenarier inte hartillgång till avancerade sensorer, kräver vi att våra modeller hanterar osäkerhet. Yt-terligare krav är maskininlärningsmodeller som inte behöver mycket data, att systemsfungerar i realtid och under säkerhetskrav. Vi visar hur generativa modeller av senso-rimotoriska kopplingar kan hantera dessa krav i våra experiment tillfredsställande.

sted, utgiver, år, opplag, sider
Stockholm: KTH Royal Institute of Technology, 2019. s. 41
Serie
TRITA-EECS-AVL ; 2019:60
HSV kategori
Forskningsprogram
Datalogi
Identifikatorer
urn:nbn:se:kth:diva-256002 (URN)978-91-7873-246-3 (ISBN)
Disputas
2019-09-12, F3, Lindstedtsvägen 26, Stockholm, 13:00 (engelsk)
Opponent
Veileder
Forskningsfinansiär
EU, Horizon 2020, socsmcs
Merknad

QC 20190816

Tilgjengelig fra: 2019-08-16 Laget: 2019-08-15 Sist oppdatert: 2019-08-16bibliografisk kontrollert

Open Access i DiVA

Fulltekst mangler i DiVA

Andre lenker

Forlagets fulltekstScopus

Personposter BETA

Kragic, DanicaBjörkman, Mårten

Søk i DiVA

Av forfatter/redaktør
Ghadirzadeh, AliBütepage, JudithKragic, DanicaBjörkman, Mårten
Av organisasjonen

Søk utenfor DiVA

GoogleGoogle Scholar

doi
isbn
urn-nbn

Altmetric

doi
isbn
urn-nbn
Totalt: 236 treff
RefereraExporteraLink to record
Permanent link

Direct link
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annet format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annet språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf