Ändra sökning
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • harvard1
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
From vocal sketching to sound models by means of a sound-based musical transcription system
KTH, Skolan för elektroteknik och datavetenskap (EECS), Medieteknik och interaktionsdesign, MID. (Sound and Music Computing)
KTH, Skolan för elektroteknik och datavetenskap (EECS), Medieteknik och interaktionsdesign, MID. KMH Royal College of Music. (Sound and Music Computing)ORCID-id: 0000-0003-1239-6746
KTH, Skolan för elektroteknik och datavetenskap (EECS), Medieteknik och interaktionsdesign, MID. (Sound and Music Computing)ORCID-id: 0000-0002-4422-5223
KTH, Skolan för elektroteknik och datavetenskap (EECS), Medieteknik och interaktionsdesign, MID. (Sound and Music Computing)ORCID-id: 0000-0002-3086-0322
2019 (Engelska)Ingår i: Proceedings of the 16th Sound and Music Computing Conference, Malaga, Spain, 2019, s. 1-7, artikel-id S2.5Konferensbidrag, Publicerat paper (Refereegranskat)
Abstract [en]

This paper explores how notation developed for the representation of sound-based musical structures could be used for the transcription of vocal sketches representing expressive robot movements. A mime actor initially produced expressive movements which were translated to a humanoid robot. The same actor was then asked to illustrate these movements using vocal sketching. The vocal sketches were transcribed by two composers using sound-based notation. The same composers later synthesized new sonic sketches from the annotated data. Different transcriptions and synthesized versions of these were compared in order to investigate how the audible outcome changes for different transcriptions and synthesis routines. This method provides a palette of sound models suitable for the sonification of expressive body movements.

Ort, förlag, år, upplaga, sidor
Malaga, Spain, 2019. s. 1-7, artikel-id S2.5
Nyckelord [en]
voice sketching, sonification, robot, sound sonic interaction design, sound representation, sound transcription
Nationell ämneskategori
Medieteknik Musik Människa-datorinteraktion (interaktionsdesign) Interaktionsteknik Mediateknik Datorseende och robotik (autonoma system)
Forskningsämne
Medieteknik; Människa-datorinteraktion; Konst, teknik och design
Identifikatorer
URN: urn:nbn:se:kth:diva-250785OAI: oai:DiVA.org:kth-250785DiVA, id: diva2:1313822
Konferens
Sound and Music Computing Conference, Universidad de Malaga Malaga, Spain, May 28-31, 2019
Projekt
SONAOThe Harmony of Noise
Forskningsfinansiär
Vetenskapsrådet, 2017-03979NordForsk, 86892
Anmärkning

QC 20190819

Tillgänglig från: 2019-05-06 Skapad: 2019-05-06 Senast uppdaterad: 2019-08-19Bibliografiskt granskad

Open Access i DiVA

Fulltext saknas i DiVA

Övriga länkar

http://smc2019.uma.es/articles/S2/S2_05_SMC2019_paper.pdf

Sök vidare i DiVA

Av författaren/redaktören
Panariello, ClaudioSköld, SköldFrid, EmmaBresin, Roberto
Av organisationen
Medieteknik och interaktionsdesign, MID
MedieteknikMusikMänniska-datorinteraktion (interaktionsdesign)InteraktionsteknikMediateknikDatorseende och robotik (autonoma system)

Sök vidare utanför DiVA

GoogleGoogle Scholar

urn-nbn

Altmetricpoäng

urn-nbn
Totalt: 143 träffar
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • harvard1
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf