| Lizenz: Veröffentlichungsvertrag für Publikationen ohne Print on Demand (4MB) |
- URN zum Zitieren dieses Dokuments:
- urn:nbn:de:bvb:355-opus-10390
- DOI zum Zitieren dieses Dokuments:
- 10.5283/epub.10778
Dokumentenart: | Buch | ||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
ISBN: | 978-3-18-302622-7 | ||||||||||||||
Datum: | 7 August 2008 | ||||||||||||||
Zusätzliche Informationen (Öffentlich): | VDI Verlag, Düsseldorf | ||||||||||||||
Institutionen: | Humanwissenschaften > Institut für Psychologie | ||||||||||||||
Klassifikation: |
| ||||||||||||||
Stichwörter / Keywords: | Multimodales System , Spracheingabe , Mensch-Maschine-Kommunikation , Mensch-Maschine-Schnittstelle , Mensch-Maschine-System , Benutzerfreundlichkeit , Haptik , Sprachdialogsystem , Usability , Sound Design , multimodal , human-computer interaction , haptics , speech dialog system , engineering psychology | ||||||||||||||
Dewey-Dezimal-Klassifikation: | 100 Philosophie und Psychologie > 150 Psychologie | ||||||||||||||
Status: | Veröffentlicht | ||||||||||||||
Begutachtet: | Ja, diese Version wurde begutachtet | ||||||||||||||
An der Universität Regensburg entstanden: | Ja | ||||||||||||||
Dokumenten-ID: | 10778 |
Zusammenfassung (Deutsch)
Die vorliegende Arbeit befasst sich aus ingenieurpsychologischer Perspektive mit dem Themenbereich multimodale Mensch-Maschine-Interaktion. Die Ziele der Arbeit bestehen darin, sowohl durch einen umfassenden theoretischen Rahmen als auch mit Hilfe experimentalpsychologischer Methoden dem Forschungsbedarf bei der Gestaltung multimodaler Schnittstellen für tertiäre Aufgaben im Kraftfahrzeug ...
Zusammenfassung (Deutsch)
Die vorliegende Arbeit befasst sich aus ingenieurpsychologischer Perspektive mit dem Themenbereich multimodale Mensch-Maschine-Interaktion. Die Ziele der Arbeit bestehen darin, sowohl durch einen umfassenden theoretischen Rahmen als auch mit Hilfe experimentalpsychologischer Methoden dem Forschungsbedarf bei der Gestaltung multimodaler Schnittstellen für tertiäre Aufgaben im Kraftfahrzeug nachzukommen sowie in Form von Gestaltungsempfehlungen das Fundament zur Konstruktion eines multimodalen Bordsystems zu legen.
In der Erörterung der theoretischen Grundlagen werden über den Anwendungsfall der Fahrzeugführung hinaus die relevanten technologischen und humanwissenschaftlichen Einflussfaktoren dargelegt. Der experimentelle Teil der Arbeit besteht aus einer Serie von acht Experimenten. In den Untersuchungen zeigte sich, dass die Integration von haptischem und auditivem Feedback für eine Touchpad-basierte Steuerung des Bordsystems zu einer Verbesserung der Interaktionsqualität und der Fahrsicherheit durch Entlastung des visuellen Kanals beitragen kann (Experimente 1-2). Darüber hinaus erwies sich dieses multimodale Touchpad als sinnvolle Alternative gegenüber einem herkömmlichen Dreh-Drücksteller. Für die Gestaltung akustischer Systemausgaben wurde ermittelt, dass lange sprachliche Ausgaben mit kognitiven Vorgängen interferieren können. Deshalb müssen Sprachausgaben für ein solches System kurz gehalten bzw. durch nicht-sprachliche akustische Ausgaben ersetzt werden (Experiment 3). Die gestalterischen Randbedingungen dafür werden diskutiert. Die Spracheingabe des geplanten menübasierten multimodalen Systems soll auf dem Say What You See Eingabeprinzip beruhen, bei dem sich das Vokabular für die Sprachbedienung aus der Beschriftung von Menüpunkten oder Steuerelementen auf dem Bildschirm ergibt. Kognitionspsychologische Überlegungen legen nahe, dass die Eingabegeschwindigkeit durch multimodales Talk-Ahead verbessert werden kann. In einem weiteren Experiment konnte gezeigt werden, dass multimodales Talk-Ahead die benötigte Aufgabenbearbeitungszeit und die visuelle Ablenkung bei Say What You See reduziert (Experiment 4). Durch die Festlegung auf Say What You See als Eingabestrategie ergibt sich die grundlegende Frage, inwiefern durch einen Verzicht auf bildhafte Darstellungen und die hohe Textdichte auf der Anzeigeeinheit die visuelle Orientierung auf dem Bildschirm erschwert würde. Eine Reihe von vier Experimenten lieferte dazu aufschlussreiche Ergebnisse. Der bekannte Befund, dass Icons im Gegensatz zu Text bei zufälliger Anordnung zu deutlich geringeren Suchzeiten führen, konnte repliziert werden (Experiment 5). Diese Situation ist zu erwarten, wenn Nutzer auf dem Display eines ihnen nicht bekannten Systems nach bestimmten Funktionen suchen, deren Darstellung sie kennen (z.B. Standardsymbole). Der Vorteil für Icons blieb auch bestehen, wenn der Anzeigeort eines Elements konstant und damit erlernbar war (Experiment 6). Sobald jedoch die Nutzer eines Systems zusätzliches Wissen über die inhaltliche Organisation der Elemente auf dem Display besitzen, verschwindet der Vorteil. Icons und textuell beschriftete Elemente führen dann zu nahezu identischen Suchzeiten (Experiment 7). In einem weiteren Experiment sollte als Worst Case Schätzung ermittelt werden, inwiefern der Vorteil von Icons bei zufälliger Anordnung für typische Blickdauern im Fahrzeug eine Bedeutung hat. Es zeigte sich, dass die Fehlerrate im kritischen Bereich einer Blickdauer von 200 bis 800 ms auf das Display bei Icons nur etwa halb so groß ist (Experiment 8). Abschließend wird ein Prozessmodell zur Entwicklung und Evaluation multimodaler Schnittstellen vorgestellt und exemplarisch aufgezeigt, wie durch das darin vorgeschlagene systematische Vorgehen die beschriebenen experimentellen Ergebnisse zur Realisierung eines multimodalen Prototyps genutzt werden können.
Durch die Verbindung von ingenieurpsychologischen Grundlagen mit der Diskussion technologischer Randbedingungen und experimentell gewonnener Verhaltensdaten schlägt die vorliegende Arbeit eine Brücke zwischen Technologie und Psychologie. Diese übergreifende Sichtweise trägt dazu bei, ein besseres Verständnis des komplexen Themenfelds multimodale Mensch-Maschine-Interaktion zu entwickeln.
Übersetzung der Zusammenfassung (Englisch)
This dissertation focuses on multimodal man-machine interaction from an engineering psychology perspective. Based upon an elaborate theoretical analysis of psychological and technological aspects of multimodal interaction, and utilizing methods of experimental psychology, open issues in the design of multimodal interfaces are analyzed and a framework for the construction of a multimodal ...
Übersetzung der Zusammenfassung (Englisch)
This dissertation focuses on multimodal man-machine interaction from an engineering psychology perspective. Based upon an elaborate theoretical analysis of psychological and technological aspects of multimodal interaction, and utilizing methods of experimental psychology, open issues in the design of multimodal interfaces are analyzed and a framework for the construction of a multimodal in-vehicle interface for tertiary tasks is provided.
Models and research findings concerning multimodal interaction are discussed in the first part of the dissertation, which gives a general overview of the relevant technological and human-related factors. This review adopts a more general approach and is not limited to the use context of in-vehicle interaction.
The results of a series of eight experiments are reported. The experiments show that the integration of haptic and auditory feedback in a touchpad-based interface for comfort functions in the car improves the quality of the interaction process and increases driving safety by reducing visual load (Experiments 1-2). Furthermore the touchpad proved to be a viable alternative to conventional rotary push-buttons. Regarding the design of auditory system output, the results show that long speech prompts can interfere with cognitive processes. Thus, speech output for an in-vehicle interface should be kept short or should be replaced by non-speech auditory output (Experiment 3). Design constraints affecting this decision are discussed. The voice user interface for the menu-based multimodal system was devised on the Say What You See principle, i.e. showing the available input vocabulary in menus or control elements on the central display. In the light of basic research findings from cognitive psychology, it seems likely that the input process can be made more efficient by multimodal talk-ahead. An additional experiment shows that multimodal talk-ahead successfully reduces task completion times and visual distraction for Say What You See menu navigation (Experiment 4). The Say What You See strategy implies the question of the extent to which textual density makes visual orientation on the display more difficult. Four experiments provide interesting results on this issue. The standard finding that randomly arranged icons can be found more easily in a visual search as compared with text was replicated (Experiment 5). This is consistent with a real-life situation in which users are looking for a known specific function in an unknown system environment. The icons retained this advantage even if the location of arbitrarily arranged items remained constant throughout the tasks, thereby becoming learnable (Experiment 6). But as soon as users can make use of knowledge about the contextual organization of the user interface, the advantage is neutralized, icons and verbal labels then needing almost identical search times (Experiment 7). An additional experiment provides insights on worst-case differences in search times between icons and text, for gaze durations typical of interaction with in-vehicle applications. In the critical range of gaze durations between 200 and 800 ms, the error rate for randomly arranged icons was only half the error rate for text (Experiment 8).
In the concluding section, a process model for the development and evaluation of multimodal interfaces is introduced. This section briefly explains how the systematic and generalizable approach of the process model can be used to realize a multimodal prototype. By combining basic findings of engineering psychology with a discussion of technological boundary conditions, this dissertation narrows the gap between psychology and technology. This interdisciplinary point of view contributes to a better understanding of the complex field of multimodal human-machine interaction.
Metadaten zuletzt geändert: 26 Nov 2020 12:25