Pfeiffer | Understanding Multimodal Deixis with Gaze and Gesture in Conversational Interfaces | Buch | 978-3-8440-0592-9 | sack.de

Buch, Englisch, 238 Seiten, GB, Format (B × H): 148 mm x 210 mm, Gewicht: 360 g

Reihe: Berichte aus der Informatik

Pfeiffer

Understanding Multimodal Deixis with Gaze and Gesture in Conversational Interfaces


1. Auflage 2011
ISBN: 978-3-8440-0592-9
Verlag: Shaker

Buch, Englisch, 238 Seiten, GB, Format (B × H): 148 mm x 210 mm, Gewicht: 360 g

Reihe: Berichte aus der Informatik

ISBN: 978-3-8440-0592-9
Verlag: Shaker


When humans communicate, we use deictic expressions to refer to objects in our surrounding and put them in the context of our actions. In face to face interaction, we complement verbal expressions with gestures and, hence, we do not need to be too precise in our verbal protocols. Our interlocutors hear our speaking; see our gestures and they even read our eyes. They interpret our deictic expressions, try to identify the referents and they understand. If only machines could do alike.

This thesis contributes to the research on multimodal conversational interfaces where humans are engaged in natural dialogues with computer systems:

- It provides precise data on multimodal interactions consisting of manual pointing gestures and eye gaze, which were collected using modern 3D tracking technology. In particular, new methods to measure the 3D point of regard of visual attention are introduced.
- It presents Gesture Space Volumes and Attention Volumes to represent gestural data and visual attention in space and provides informative 3D visualizations.
- It offers a data-driven model for human pointing, which specifies exactly how the direction of manual pointing is defined and highlights in particular the role of gaze in this process.
- It presents technologies for the recording, integration and analysis of multimodal data, which allow for a multimodal exploration of multimedia corpus data in an immersive virtual environment.
- It introduces the DRIVE framework for real-time deictic multimodal interaction in virtual reality, which implements the developed models.

Pfeiffer Understanding Multimodal Deixis with Gaze and Gesture in Conversational Interfaces jetzt bestellen!

Autoren/Hrsg.




Ihre Fragen, Wünsche oder Anmerkungen
Vorname*
Nachname*
Ihre E-Mail-Adresse*
Kundennr.
Ihre Nachricht*
Lediglich mit * gekennzeichnete Felder sind Pflichtfelder.
Wenn Sie die im Kontaktformular eingegebenen Daten durch Klick auf den nachfolgenden Button übersenden, erklären Sie sich damit einverstanden, dass wir Ihr Angaben für die Beantwortung Ihrer Anfrage verwenden. Selbstverständlich werden Ihre Daten vertraulich behandelt und nicht an Dritte weitergegeben. Sie können der Verwendung Ihrer Daten jederzeit widersprechen. Das Datenhandling bei Sack Fachmedien erklären wir Ihnen in unserer Datenschutzerklärung.