Promotion
Dissertationen
Marc Hesenius: Spezifikation von Gestensteuerung – Ein hybrider Ansatz
Die Interaktion zwischen Mensch und Maschine (engl. Human-Computer Interaction (HCI)) entwickelt sich mit hoher Geschwindigkeit weiter, insbesondere durch den Fortschritt in der Sensortechnologie. Vor allem Multi-Touch-Gesten sind in den vergangenen Jahren durch die Verbreitung mobiler Geräte und zahlreicher anderer Geräte (z. B. berührungsempfindliche Tische oder digitale Whiteboards) zum Standard avanciert und haben mittlerweile auch den Weg zurück in die klassische Welt des PCs geschafft. Neue Sensoren ermöglichen auch räumliche Gesten, die vor allem für Anwendungen im Bereich der virtuellen und augmentierten Realität interessant sind: Benutzer können direkt mit virtuellen Objekten interagieren oder Kommandos absetzen, indem sie ihre Hände, Finger oder Werkzeuge wie Magic Wands im dreidimensionalen Raum bewegen. HCI im Allgemeinen und Gestensteuerung im Besonderen sind außerdem Schlüsselfaktoren, um die individuelle Benutzererfahrung (engl. User Experience (UX)) zufriedenstellend zu gestalten. Benutzer erwarten Fehlerfreiheit und ein ansprechendes Design, aber auch ein gutes Gefühl – ein eher undefinierbares Merkmal, das abhängig ist von unterschiedlichen Faktoren, aber maßgeblich von HCI beeinflusst wird. Gestensteuerung ist somit wichtig für den wirtschaftlichen Erfolg einer Anwendung und muss bei der Entwicklung explizit betrachtet werden. Angedachte Gesten müssen korrekt definiert und zwischen den unterschiedlichen Projektbeteiligten kommuniziert werden. Gesten sind jedoch schwierig zu implementieren und Entwickler müssen unterschiedliche Entscheidungen treffen, die nicht ohne Weiteres rückgängig gemacht werden können: Passende Hardware zur definierten Interaktion ist ebenso nötig wie Sensoren, die die notwendigen Daten liefern, und Algorithmen, die in dem Strom der Eingaben die ausgeführten Gesten zuverlässig erkennen – eine komplexe und fehleranfällige Aufgabe. In der modernen Software-Entwicklung sind interdisziplinäre Teams und agile Methoden heute Standard, in denen die unterschiedlichen Projektbeteiligten – sowohl technische als auch fachliche Spezialisten – ihre jeweiligen Stärken ausspielen und kombinieren können. Skizzen und Prototypen spielen vor allem in frühen Phasen eines Projekts eine wichtige Rolle bei der Arbeit von UI-Designern und Software-Ingenieuren und sind insbesondere für die Entwicklung der Benutzerschnittstelle wichtig: Alle Projektbeteiligten können so schnell eine gemeinsame Vision der Anwendung aufbauen. Allerdings wird in Sketches und Prototypen die Interaktion nicht explizit definiert, sondern nur eine implizite Definition zur Verfügung gestellt, wodurch Missverständnisse und unterschiedliche Interpretationen möglich sind. Die Definition von Gesten ist jedoch wichtig, um die korrekten Entscheidungen für die Implementierung zu treffen, insbesondere wenn individuelle Gesten eingesetzt werden sollen. Die Grundlage der Gestenbeschreibung sind die unterschiedlichen Eigenschaften, die moderne Sensoren ermöglichen. Neben der Form einer Geste können auch weitere Informationen für HCI verwendet werden, z. B. die Geschwindigkeit oder der Ort der Ausführung. Allerdings kann die optimale Notationsform für verschiedene Eigenschaften unterschiedlich sein. Existierende Notationen zur Beschreibung von Gesten basieren meist auf entweder textuellen oder graphischen Elementen und lassen somit die Möglichkeiten außer Acht, die eine Kombination beider Paradigmen bietet. Diese Arbeit stellt GestureCards vor, eine hybride Notation zur Beschreibung von Gesten. GestureCards kombinieren graphische und textuelle Elementen, um die unterschiedlichen Eigenschaften von Gesten darzustellen. Die Notation soll zur Spezifikation von Gesten eingesetzt werden und ermöglicht die Beschreibung von Oberflächengesten und räumlichen Gesten. Die verschiedenen Aspekte, die bei der Entwicklung von GestureCards im Vordergrund standen, und die zugrundeliegenden Konzepte werden in mehreren Studien evaluiert. Die Studien zeigen, dass der hybride Ansatz, der für GestureCards gewählt wurde, vorteilhaft bei der Entwicklung gestenbasierter Anwendungen ist und Entwickler beim Verständnis definierter Gesten unterstützt.