Ändra sökning
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • harvard1
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Data Driven Non-Verbal Behavior Generation for Humanoid Robots
KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.ORCID-id: 0000-0001-9838-8848
2018 (Engelska)Konferensbidrag, Publicerat paper (Refereegranskat)
Abstract [en]

Social robots need non-verbal behavior to make an interaction pleasant and efficient. Most of the models for generating non-verbal behavior are rule-based and hence can produce a limited set of motions and are tuned to a particular scenario. In contrast, datadriven systems are flexible and easily adjustable. Hence we aim to learn a data-driven model for generating non-verbal behavior (in a form of a 3D motion sequence) for humanoid robots. Our approach is based on a popular and powerful deep generative model: Variation Autoencoder (VAE). Input for our model will be multi-modal and we will iteratively increase its complexity: first, it will only use the speech signal, then also the text transcription and finally - the non-verbal behavior of the conversation partner. We will evaluate our system on the virtual avatars as well as on two humanoid robots with different embodiments: NAO and Furhat. Our model will be easily adapted to a novel domain: this can be done by providing application specific training data.

Ort, förlag, år, upplaga, sidor
Boulder, CO, USA: ACM Digital Library, 2018. s. 520-523
Nyckelord [en]
Non-verbal behavior, data driven systems, machine learning, deep learning, humanoid robot
Nationell ämneskategori
Människa-datorinteraktion (interaktionsdesign)
Forskningsämne
Människa-datorinteraktion
Identifikatorer
URN: urn:nbn:se:kth:diva-238617DOI: 10.1145/3242969.3264970ISI: 000457913100073Scopus ID: 2-s2.0-85056642092ISBN: 978-1-4503-5692-3 (tryckt)OAI: oai:DiVA.org:kth-238617DiVA, id: diva2:1260916
Konferens
2018 International Conference on Multimodal Interaction (ICMI ’18), October 16–20, 2018, Boulder, CO, USA
Projekt
EACare
Forskningsfinansiär
Stiftelsen för strategisk forskning (SSF), 7085
Anmärkning

QC 20181106

Tillgänglig från: 2018-11-05 Skapad: 2018-11-05 Senast uppdaterad: 2019-03-18Bibliografiskt granskad

Open Access i DiVA

Fulltext saknas i DiVA

Övriga länkar

Förlagets fulltextScopushttps://dl.acm.org/citation.cfm?id=3264970

Personposter BETA

Kucherenko, Taras

Sök vidare i DiVA

Av författaren/redaktören
Kucherenko, Taras
Av organisationen
Robotik, perception och lärande, RPL
Människa-datorinteraktion (interaktionsdesign)

Sök vidare utanför DiVA

GoogleGoogle Scholar

doi
isbn
urn-nbn

Altmetricpoäng

doi
isbn
urn-nbn
Totalt: 165 träffar
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • harvard1
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf