Passwort vergessen?  |  Anmelden
 |  Passwort vergessen?  |  Anmelden

Mittwoch, 24. Januar 2018

Technik

Pantomime vor dem PC

Von Susanne Donner | 6. Juni 2014 | Ausgabe 23

Künftig soll sich mit Gesten das Bett von Pflegebedürftigen verstellen oder ein Bahnticket lösen lassen. Noch eilen solche Visionen dem Können der Geräte voraus, aber immer mehr Hersteller forschen in Sachen Gebärdenkommunikation. So müssen etwa allgemeinverständliche Gesten entwickelt werden.

Interaktives Schaufenster
Foto: Fraunhofer Heinrich-Hertz-Institut

Mit dem interaktiven Schaufenster können Passanten einen hinter der Schaufensterscheibe angebrachten Bildschirm mit einfachen Gesten bedienen. Per Fingerzeig lassen sich digitale Objekte drehen und zoomen oder virtuelle Seiten umblättern.

In Demovideos bewirken ein paar Handbewegungen schon jetzt wahre Wunder. Mit wenigen Gesten werden bei Toyota Autos am Bildschirm zusammengebaut. Roboterarme im Nasa-Labor packen Legosteine, sobald eine Person die entsprechenden Handgriffe vormacht. Und Forscher des deutschen Projekts Geniaal, einer Netzwerkinitiative zur Entwicklung technikgestützter Lösungen für Behinderte und Ältere, stellen sich das so vor: Auf einen lässigen Wink hin surrt das Bett der pflegebedürftigen Dame in die Höhe, damit sie besser aufstehen kann. Das Auto, der Roboter, das Bett – sie alle rühren sich nur auf Gesten hin.

So weit die Vision. Die Vorhut ist bereits da. Heute lassen sich alleine mittels Körpersprache Spielzeug-Laserschwerter schwingen – über die Spielkonsole Xbox 360 von Microsoft. 2010 hat der US-Softwareriese damit erstmals ein System zur Gestenerkennung ausgeliefert.

Im letzten Jahr lancierte das kalifornische Start-up Leap Motion ein weiteres: Es erfasst mit gleich drei Infrarot-LEDs sowie zwei Kameras, installiert in einem nicht mal feuerzeuggroßen Kästchen, die Bewegungen jedes einzelnen Fingers vor dem Bildschirm. Damit kann der Nutzer freihändig scrollen, zoomen, Spiele steuern und im Web surfen.

Und mit dem freakigen Werbeslogan "Entfessele den Jedi in dir" sammelt das amerikanische Start-up Thalmic Lab derzeit Vorbestellungen für sein Myoarmband. Damit werden die Muskelreize bei jeder Armbewegung als elektrische Signale an den Computer gefunkt.

"Neu ist, dass nun große Hersteller in den Markt drängen", sagt Paul Chojecki vom Fraunhofer Heinrich-Hertz-Institut in Berlin. Leap Motion etwa tat sich mit dem US-Computerproduzenten HP zusammen, der Gestenerkennung in seine Geräte einbauen will. Intel stellte auf der jüngsten Consumer Electronics Show in Las Vegas eine neue Kamera zur Erfassung von Gesten vor. Und Apple kaufte Ende vergangenen Jahres die israelische Firma PrimeSense. Diese hatte Sensoren für die Konsolensteuerung Microsoft Kinect entwickelt, die allein durch Körperbewegung zu bedienen ist – wohlweislich, um Apple-Geräte für die neue Form der Zwiesprache zu rüsten.

Bei Spielereien wird es nicht bleiben. Die ersten Geräte haben bereits die Unterhaltungsindustrie hinter sich gelassen. So vertreibt der Tuttlinger Medizintechnikhersteller Karl Storz seit Ende 2010 eine gestenbasierte Steuerung für Monitore im Operationssaal. Auf diesen Bildschirmen kann der Chirurg Patientendaten einsehen, darf dafür aber die Tastatur nicht berühren. Denn die ist nicht steril. Bislang brauchte der Operateur deshalb stets einen Assistenten. Nun kann er die Geräte berührungslos mit Gebärden steuern. "Das funktioniert auch mit blutbefleckten Handschuhen", kommentiert Chojecki.

Die großen Märkte sieht der Fraunhofer-Forscher neben Medizintechnik und Unterhaltungselektronik in "Autos und Automaten". Denn die Touchscreens von Fahrkartenautomaten sind oft derart verschmiert und unhygienisch, dass ihre Jahre gezählt sein dürften.

Die virtuellen Schalter von morgen werden nach Überzeugung des Gestenkommunikationsforschers Worten lauschen und Händen folgen. Der Kofferraum mancher Autos öffnet sich bereits auf einen Kick mit dem Fuß, den Sensoren unter der Stoßstange registrieren. Voll bepackt mit Einkaufstaschen braucht man den Schlüssel nun nicht mehr aus der Tasche zu nesteln.

Chojeckis Team begeisterte kürzlich zudem Frauen mit einem virtuellen Schaufenster, aus dem sie Schmuck, Kleidung und Handtaschen per Fingerzeig auswählen und dann mehr darüber erfahren können.

"Die Gestensteuerung wird vor allem in 3-D-Welten vieles anschaulicher machen", glaubt Karsten Huffstadt, Informatiker an der Hochschule für angewandte Wissenschaften in Würzburg-Schweinfurt. Sein Team strickte eine Software für Architekten, mit der sie dreidimensionale Häuser entwerfen und diese dann mit bestimmten Gesten besichtigen können.

Für den Dialog via Körpersprache müssen sich zunächst jedoch universelle Gestencodes herausbilden. So wie das Auseinanderziehen von Daumen und Zeigefinger auf dem Touchscreen "Vergrößern" bedeutet, werden noch einige allgemeingültige Gesten hinzukommen.

Auf der Suche nach geeigneten Kandidaten ließ Huffstadt Studenten beim Streifzug durch ein 3-D-Gebäude verschiedene Gesten testen. Um etwa ins Bad zu gelangen, deuteten sie mit ihrer Hand darauf. Wollten sie eintreten, ergaben sich zwei Alternativen: Sie drückten die Hand in die Tiefe oder tippten mit der freien Hand auf die andere. "Die zweite Variante funktionierte besser, die Geste ist eindeutiger", berichtet Huffstadt.

"Um überhaupt eine sinnvolle Körpersprache für die Kommunikation mit Geräten zu entwickeln, müssen wir mehr über den Menschen wissen", wendet Sukeshini Grandhi von der Eastern Connecticut State University in Willimantic ein. Sie analysiert, wie Personen einem Computer gegenüber gestikulieren und etwa "Schneiden" veranschaulichen. Einige schließen dafür die Hand, als würden sie ein Messer halten, und bewegen die Faust dann von oben nach unten. Andere vollführen mit der geöffneten Hand als Klinge dieselbe Bewegung.

Hersteller dürften deshalb nicht nur Körperpunkte erfassen, wenn sie mit mehr als einer Handvoll Gestencodes arbeiten wollen, so Grandhi. Die sollten sich im besten Fall sowohl im Bewegungsablauf als auch in der Handhaltung unterscheiden.

Hinzu kommen kulturelle Unterschiede der Körpersprache. So wie es Dutzende Tastaturen gibt, wird es verschiedene Gestenvokabulare geben, meint Grandhi. Nur so können Araber künftig von links nach rechts blättern und Europäer weiterhin von links nach rechts lesen.

Noch stecken diese Arbeiten im Frühstadium. Das mit Gesten steuerbare Bett eilt dem Entwicklungstempo der Firmen weit voraus. "Wir wollen heute schon mehr als die Geräte können", findet Huffstadt. Immer wieder missdeuten die Detektoren im Versuch die Gebärden.

So beklagen Computerspieler, dass etwa nichtssagende Handbewegung von der Spielkonsole Kinect 1.0 als Schlag interpretiert würde und daraufhin den virtuellen Mitspieler niedergestreckt hätte. Die Reviews der Tester sind eher enttäuschend ausgefallen. Die Zeitschrift Chip urteilte über die Bewegungssteuerung von Leap Motion: "Den Arm lange ausgestreckt (über den Detektor) zu halten, ist ermüdend." Prinzipiell könne man zwar freihändig damit surfen, aber auf bestimmten Webseiten wie Google Earth sei die Steuerung zu ungenau.

Fraunhofer-Forscher Chojecki kennt weitere Schwächen der bisher gebräuchlichen Systeme: Scheint die Sonne ins Zimmer, irritiert das die Infrarotsensoren. Zudem sei unklar, wo der Detektor den Nutzer noch sieht und wann dieser sich im Abseits bewegt.

Medizintechnikhersteller Karl Storz markiert den Empfangsbereich mit einer Laserlinie. Bei Spielen wird dies meist mit einem Avatar angezeigt. In der Kinect 2.0 sorgt eine hochauflösende Kamera für eine bessere Erkennung in der Tiefe. War die Hand vorher ein Datenpunkt, so sind es jetzt zwei. Flache Hand und Faust kann der Detektor nun auseinanderhalten und markiert damit den Anfang einer neuen Entwicklung.

"In den kommenden Jahren werden mehr und mehr gestenbasierte Produkte auf den Markt kommen", ist sich Chojecki sicher, "weil die Sensoren und die Auswerteprogramme immer leistungsfähiger werden." SUSANNE DONNER

stellenangebote

mehr