Pervasive computing has postulated to invisibly integrate technology into everyday objects in such a way, that these objects turn into smart things. Not only a single object of this kind is supposed to represent the interface among the "physical world" of atoms and the "digital world" of bits, but a whole landscapes of them. The interaction with such technology rich artefacts is supposed to be guided by their affordance, i.e. the ability of an artefact to express the modality of its appropriate use. We study human gesticulation and the manipulation of graspable and movable everyday artefacts as a potentially effective means for the interaction with smart things. In this work we consider gestures in the general sense of a movement or a state (posture) of the human body, as well as a movement or state of any physical object resulting from human manipulation. Intuitive "everyday"-gestures have been collected in a series of user tests, yielding a catalogue of generic body and artefact gesture dynamics. Atomic gestures are described by trajectories of orientation data, while composite gestures are defined by a compositional gesture grammar. The respective mechanisms for the recognition of such gestures have been implemented in a general software framework supported by an accelerometer-based sensing system. Showcases involving multiple gesture sensors demonstrate the viability of implicit embedded interaction for real life scenarios.Pervasive Computing hat sich zum Ziel gesetzt, Technologie quasi "unsichtbar" in Gegenstände des alltäglichen Lebens zu integrieren. Dabei geht es nicht nur darum, dass einzelne Gegenstände eine Schnittstelle zwischen der physischen Welt der Atome und der digitalen Welt der Bits bilden, vielmehr zählt die Gesamtheit dieser "Smart Things" und wie sie miteinander interagieren. Die Autoren untersuchen die menschliche Gestik sowie die Manipulation von beweglichen Gegenständen als mögliche effektive Maßnahme zur Interaktion mit den "Smart Things". In diesem Beitrag erstreckt sich die Bezeichnung von "Gesten" sowohl auf Gesten im allgemeinen Sinn als Bewegung oder Zustand (Haltung) des menschlichen Körpers als auch auf die Bewegung oder den Zustand eines physischen Gegenstands aufgrund von menschlicher Manipulation. In einer Reihe von Tests wurden Gesten des alltäglichen Lebens gesammelt, die einen Katalog von generischen Körperbewegungen bzw. Bewegungen von Objekten ergeben haben. Einzelgesten werden als Sequenzen von Orientierungsdaten dargestellt, während zusammengesetzte Gesten durch ein eigenes Regelwerk beschrieben werden. Die entsprechenden Mechanismen wurden in ein Softwaresystem integriert. Sensormodelle zur Erfassung komplexer Gestik weisen bereits auf die Machbarkeit von Systemen zur implizierten eingebetteten Interaktion in Anwendungen hin.
[1]
Paul Dourish,et al.
From Interaction to Participation: Configuring Space Through Embodied Interaction
,
2005,
UbiComp.
[2]
Thomas P. Moran,et al.
Embodied User Interfaces: Towards Invisible User Interfaces
,
1998,
EHCI.
[3]
Claus Bahlmann,et al.
Online handwriting recognition with support vector machines - a kernel approach
,
2002,
Proceedings Eighth International Workshop on Frontiers in Handwriting Recognition.
[4]
Steve Benford,et al.
A Framework for Tangible User Interfaces
,
2003
.
[5]
Tracy L. Westeyn,et al.
Georgia tech gesture toolkit: supporting experiments in gesture recognition
,
2003,
ICMI '03.
[6]
Thomas B. Moeslund,et al.
A procedure for developing intuitive and ergonomic gesture interfaces for man-machine interaction
,
2003
.
[7]
Joseph A. Paradiso,et al.
An Inertial Measurement Framework for Gesture Recognition and Applications
,
2001,
Gesture Workshop.
[8]
Lars Bretzner,et al.
Computer Vision Based Hand Gesture Interfaces for Human-Computer Interaction
,
2002
.
[9]
Saul Greenberg,et al.
Phidgets: easy development of physical interfaces through physical widgets
,
2001,
UIST '01.
[10]
Hiroshi Ishii,et al.
Emerging frameworks for tangible user interfaces
,
2000,
IBM Syst. J..
[11]
Gerhard Tröster,et al.
Detection of eating and drinking arm gestures using inertial body-worn sensors
,
2005,
Ninth IEEE International Symposium on Wearable Computers (ISWC'05).
[12]
Shigeki Sagayama,et al.
Dynamic Time-Alignment Kernel in Support Vector Machine
,
2001,
NIPS.
[13]
Paul Dourish,et al.
Where the action is
,
2001
.
[14]
P. Bajcsy,et al.
Recognition of arm gestures using multiple orientation sensors: gesture classification
,
2004,
Proceedings. The 7th International IEEE Conference on Intelligent Transportation Systems (IEEE Cat. No.04TH8749).
[15]
Hiroshi Ishii,et al.
Bricks: laying the foundations for graspable user interfaces
,
1995,
CHI '95.
[16]
Adrian David Cheok,et al.
22nd International Conference on Human-Computer Interaction with Mobile Devices and Services
,
2007,
Lecture Notes in Computer Science.