Ob Smart-Watch, Fitness-Armband oder die Computerbrille Google Glass – sogenannte Wearable Computing-Anwendungen sind im Trend. Diese Gadgets und Computersysteme lassen sich wie Kleidung am Körper tragen und so nahtlos in den Alltag des Nutzers integrieren.
Die Vorteile liegen auf der Hand: Was ich am Arm trage, kann ich nicht vergessen oder verlegen. Und das Gerät ist immer dabei. Besonders beliebt sind Armbänder, die Bewegung, Puls und sogar den Schlaf überwachen und aufzeichnen. Sie sollen dabei helfen, für ausreichend Bewegung zu sorgen oder den Gesundheitszustand überwachen helfen. Einige Geräte kombinieren diese Merkmale inzwischen mit den Leistungen eines Smartphones: So kann der Sony-Tracker Core beispielsweise Musik abspielen und Anrufe melden. Immerhin 13 Prozent der Besitzer von Wearable Device wollen nicht mehr auf ihre mobilen Helfer verzichten, so eine Umfrage.
Gesten statt Tippen
Die neuen Wearables könnten aber auch dabei helfen, die Bedienung herkömmlicher Smartphones, Tablets oder PCs zu erleichtern. Ein System dafür präsentieren Forscher des Karlsruher Instituts für Technologie (KIT) auf der CeBIT. „Informationstechnologie nutzen wir jederzeit und überall, derzeitige Eingabegeräte wie Smartphones erfordern bislang noch das manuelle Tippen auf virtuellen Mini-Tastaturen und konzentrierte Aufmerksamkeit auf kleine Bildschirme, sagt Christoph Amma, der das System am Cognitive Systems Lab (CSL) des KIT entwickelt hat.
Die Alternative: Gesten als Eingabemethode. Damit lassen sich SMS, E-Mails und Chat-Nachrichten lässig in die Luft schreiben statt mühsam auf einer virtuellen Smartphone-Tastatur tippen zu müssen. Möglich wird dies durch das Sensorarmband „Airwriting“, das Handbewegungen aufzeichnet und an einen Computer weiterleitet. Dort wird das Ganze in geschriebenen Text übersetzt. „Alle nicht schriftähnlichen Bewegungen, wenn ich also beispielsweise koche, Wäsche wasche oder jemandem zuwinke, ignoriert es“, erklärt Amma. Auf diese Weise könne das System im Hintergrund laufen, ohne jede Bewegung als Eingabe für den Computer zu interpretieren.
Einen Einsatzbereich für sein System sieht der Informatiker in zukünftigen Mixed-Reality-Anwendungen: etwa in Brillen mit integrierten Miniaturbildschirmen, über die Nachrichten in das Sichtfeld des Nutzers eingeblendet werden. „Kombiniert man ein solches System mit der Möglichkeit, Kommandos und Texte durch Gesten einzugeben, ist es überhaupt nicht mehr notwendig, ein Gerät in der Hand zu halten“, sagt er.
Redaktion scinexx
Stand: 07.03.2014