Ändra sökning
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • harvard1
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
User-Centered Control of Audio and Visual Expressive Feedback by Full-Body Movements
KTH, Skolan för datavetenskap och kommunikation (CSC), Tal, musik och hörsel, TMH, Musikakustik.ORCID-id: 0000-0002-3086-0322
2007 (Engelska)Ingår i: Affective Computing and Intelligent Interaction / [ed] Paiva, Ana; Prada, Rui; Picard, Rosalind W., Berlin / Heidelberg: Springer Berlin/Heidelberg, 2007, s. 501-510Kapitel i bok, del av antologi (Refereegranskat)
Abstract [en]

In this paper we describe a system allowing users to express themselves through their full-body movement and gesture and to control in real-time the generation of an audio-visual feedback. The systems analyses in real-time the user’s full-body movement and gesture, extracts expressive motion features and maps the values of the expressive motion features onto real-time control of acoustic parameters for rendering a music performance. At the same time, a visual feedback generated in real-time is projected on a screen in front of the users with their coloured silhouette, depending on the emotion their movement communicates. Human movement analysis and visual feedback generation were done with the EyesWeb software platform and the music performance rendering with pDM. Evaluation tests were done with human participants to test the usability of the interface and the effectiveness of the design.

Ort, förlag, år, upplaga, sidor
Berlin / Heidelberg: Springer Berlin/Heidelberg, 2007. s. 501-510
Serie
Lecture Notes in Computer Science, ISSN 0302-9743 ; 4738
Nyckelord [en]
Affective interaction, expressive gesture, multimodal environments, interactive music systems
Nationell ämneskategori
Datavetenskap (datalogi) Människa-datorinteraktion (interaktionsdesign) Datorseende och robotik (autonoma system) Psykologi Musik
Identifikatorer
URN: urn:nbn:se:kth:diva-51975DOI: 10.1007/978-3-540-74889-2_44Scopus ID: 2-s2.0-38049037289ISBN: 978-3-540-74888-5 (tryckt)OAI: oai:DiVA.org:kth-51975DiVA, id: diva2:465265
Anmärkning

tmh_import_11_12_14. QC 20111230

Tillgänglig från: 2011-12-14 Skapad: 2011-12-14 Senast uppdaterad: 2018-01-12Bibliografiskt granskad

Open Access i DiVA

Fulltext saknas i DiVA

Övriga länkar

Förlagets fulltextScopus

Personposter BETA

Bresin, Roberto

Sök vidare i DiVA

Av författaren/redaktören
Bresin, Roberto
Av organisationen
Musikakustik
Datavetenskap (datalogi)Människa-datorinteraktion (interaktionsdesign)Datorseende och robotik (autonoma system)PsykologiMusik

Sök vidare utanför DiVA

GoogleGoogle Scholar

doi
isbn
urn-nbn

Altmetricpoäng

doi
isbn
urn-nbn
Totalt: 368 träffar
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • harvard1
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf