Open this publication in new window or tab >>2022 (English)Doctoral thesis, comprehensive summary (Other academic)
Abstract [en]
Robots that operate in human environments need the capability to adapt their behavior to new situations. Most robots so far rely on pre-programmed behavior or machine learning algorithms trained offline with selected data. Due to the large number of possible situations robots might encounter, it becomes impractical to define or learn all behaviors before deployment, causing them to inevitably fail at some point in time. As a result of this inability to adapt to new situations, the robot might fail to successfully complete its task or achieve a goal in a way that defies people's expectations or preferences. Ideally, robots need to ability to autonomously collect additional behaviors and constraints that enable them to correct their behaviors.The topic of this dissertation is robot behavior correction using feedback from non-experts, people who are not necessarily programmers or roboticists. We explore how non-experts can help robots recover when their plan or policy fails. Furthermore, working with and around humans, robots need to adapt to user preferences. For instance, users might prefer their autonomous vehicle to adopt a defensive driving style over an aggressive one, or someone might prefer their coffee mug to be placed on the coffee table left of their chair. In many everyday situations, robots will require additional rules that do not require technical knowledge. For instance, a rule that the robot should not place the coffee mug too close to the edge of the table, or that the robot might need to open the door of a cabinet first before it can place something in it. We propose an approach that leverages knowledge from non-experts to provide input to correct robot behaviors. We identify two main types of input: what the robot should do (task goals and constraints) and how the robot should achieve its task (preferences and decision-making). This dissertation explores this approach by drawing on human-robot interaction research on robot failures, crowdsourcing, and machine learning for large-scale data collection and generation, and techniques from formal methods to ensure the safety and correctness of the robot. The work described in this dissertation is a step towards better understanding how we can design robots that can automatically correct their behavior using non-expert feedback and what the challenges are of non-expert robot behavior correction.
Abstract [sv]
Robotar som agerar i miljöer med människor måste ha egenskapen att anpassa sig till nya situationer. De flesta robotar har hittills utgått från förprogrammerat beteende eller beteende från maskininlärning som tränats offline. På grund av det stora antalet möjliga situationer som en robot kan befinna sig i, så är det opraktiskt att definiera eller lära sig alla beteenden före utplacering, vilket leder till att roboten oundvikligen misslyckas vid någon tidpunkt. Resultatet av robotens oförmåga att hantera nya situationer är att den kan misslyckas med sitt uppdrag eller uppfylla sitt mål på det sättet som förväntas eller föredras. I den bästa av världar har roboten egenskapen att autonomt samla ytterligare beteenden och begränsningar som möjliggör korrekt beteende. Denna avhandlings ämne är korrigering av robotbeteende genom användning av återkoppling från personer som inte är skolade inom programmering eller robotik, d.v.s. lekmän.Vi utforskar hur lekmän kan hjälpa robotar att återhämta sig när deras plan eller policy misslyckas. Vidare måste robotar som arbetar med och runt människor kunna ta hänsyn till användarnas preferenser. Till exempel så kan användare föredra defensiva körstilar framför aggressiva körstilar hos autonoma bilar, eller en användare kan föredra att deras kaffekopp placeras på soffbordet till vänster om deras stol. I många vardagssituationer kommer robotar behöva ytterligare regler som inte kräver teknisk kunskap. Till exempel, en regel som fastslår att en kaffekopp inte ska placeras för nära kanten på ett bord, eller att roboten måste öppna dörren till ett skåp innan något kan placeras i det.Vi föreslår ett tillvägagångssätt som utnyttjar kunskap från lekmän för att förse en robot med indata för korrekta beteenden. Vi identifierar två huvudsakliga typer av indata: vad en robot borde göra (uppdrag och begränsningar), och hur en robot ska uppfylla sitt uppdrag (preferenser och beslutstagande). Denna avhandling utforskar detta tillvägagångssätt genom att använda sig av forskning inom människa-robot interaktion rörande misslyckande, crowdsourcing, och maskininlärning för storskalig datainsamling och generering, samt tekniker inom formella metoder för att garantera säkerhet och korrekthet. Arbetet som beskrivs i denna avhandling är ett steg mot en bättre förståelse av hur vi kan designa robotar som kan rätta sitt beteende automatiskt genom användning av återkoppling från lekmän samt utmaningarna inom icke-expert korrigering av robotbeteende.
Place, publisher, year, edition, pages
Stockholm: KTH Royal Institute of Technology, 2022. p. vii, 40
Series
TRITA-EECS-AVL ; 2022:73
Keywords
Non-expert robot correction, robot failure, human-robot interaction, robotics
National Category
Robotics and automation
Research subject
Computer Science
Identifiers
urn:nbn:se:kth:diva-321237 (URN)978-91-8040-412-9 (ISBN)
Public defence
2022-12-05, Zoom: https://kth-se.zoom.us/j/61095601099, Kollegiesalen, Brinellvägen 6, Stockholm, 14:00 (English)
Opponent
Supervisors
Note
QC 20221109
2022-11-092022-11-092025-02-09Bibliographically approved