kth.sePublikationer
Ändra sökning
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
SpaceRefNet: a neural approach to spatial reference resolution in a real city environment
KTH, Skolan för elektroteknik och datavetenskap (EECS), Intelligenta system, Tal, musik och hörsel, TMH.ORCID-id: 0000-0001-7327-3059
KTH, Skolan för elektroteknik och datavetenskap (EECS), Intelligenta system, Tal, musik och hörsel, TMH.ORCID-id: 0000-0003-2600-7668
2019 (Engelska)Ingår i: Proceedings of the 20th Annual SIGdial Meeting on Discourse and Dialogue, Association for Computational Linguistics , 2019, s. 422-431Konferensbidrag, Muntlig presentation med publicerat abstract (Refereegranskat)
Abstract [en]

Adding interactive capabilities to pedestrian wayfinding systems in the form of spoken dialogue will make them more natural to humans. Such an interactive wayfinding system needs to continuously understand and interpret pedestrian’s utterances referring to the spatial context. Achieving this requires the system to identify exophoric referring expressions in the utterances, and link these expressions to the geographic entities in the vicinity. This exophoric spatial reference resolution problem is difficult, as there are often several dozens of candidate referents. We present a neural network-based approach for identifying pedestrian’s references (using a network called RefNet) and resolving them to appropriate geographic objects (using a network called SpaceRefNet). Both methods show promising results beating the respective baselines and earlier reported results in the literature.

Ort, förlag, år, upplaga, sidor
Association for Computational Linguistics , 2019. s. 422-431
Nationell ämneskategori
Språkteknologi (språkvetenskaplig databehandling)
Identifikatorer
URN: urn:nbn:se:kth:diva-262883DOI: 10.18653/v1/w19-5949ISI: 000591510500049Scopus ID: 2-s2.0-85091595033OAI: oai:DiVA.org:kth-262883DiVA, id: diva2:1363222
Konferens
20th Annual Meeting of the Special Interest Group on Discourse and Dialogue, SIGDIAL 2019, 11-13 September 2019, Stockholm, Sweden
Anmärkning

QC 20210914

Tillgänglig från: 2019-10-22 Skapad: 2019-10-22 Senast uppdaterad: 2022-06-26Bibliografiskt granskad

Open Access i DiVA

fulltext(1630 kB)258 nedladdningar
Filinformation
Filnamn FULLTEXT01.pdfFilstorlek 1630 kBChecksumma SHA-512
6ce18ca70d4e0a05e57bd21320433d24eee7f3529f88ca43a8fd64025b1f2c76c61879ac23f9d1b1b54827fcd91c70b4fe23587c0c459bb858c34166e484b4f6
Typ fulltextMimetyp application/pdf

Övriga länkar

Förlagets fulltextScopusPublished version

Person

Kalpakchi, DmytroBoye, Johan

Sök vidare i DiVA

Av författaren/redaktören
Kalpakchi, DmytroBoye, Johan
Av organisationen
Tal, musik och hörsel, TMH
Språkteknologi (språkvetenskaplig databehandling)

Sök vidare utanför DiVA

GoogleGoogle Scholar
Totalt: 258 nedladdningar
Antalet nedladdningar är summan av nedladdningar för alla fulltexter. Det kan inkludera t.ex tidigare versioner som nu inte längre är tillgängliga.

doi
urn-nbn

Altmetricpoäng

doi
urn-nbn
Totalt: 380 träffar
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf