Eye-Tracking und Gesten-Erkennung

Das iPad war nur der Anfang

11.11.2011
Von Kolja Kröger

Multitouch ist nur der Anfang neuer Interaktions-Formen zwischen Mensch und Maschine. Schon arbeiten Forscher an haptischen Touchscreens, die Texturen zum Beispiel in Spiele einbauen - so dass Buttons sich anfühlen, als wären es echte Knöpfe zum Draufdrücken. Und wenn Computer Handzeichen ganz ohne Touch-Display erkennen, scheuchen Logistiker bald mit wenigen Gesten führerlose Gabelstapler durchs Lager.

Gehirnströme und Wutausbrüche messen

Neue Interface-Typen von Spracherkennung bis zu Gehirnströmen.
Neue Interface-Typen von Spracherkennung bis zu Gehirnströmen.
Foto: Gartner

Von dort ist es nur noch ein kleiner Schritt zur Verhaltenserkennung. Der Computer erkennt, wenn Senioren daheim stürzen und ruft den Rettungsdienst. Auch Big Brother profitiert, wenn die Videoüberwachung automatisch Ausschau nach möglichen Taschendieben und Terroristen hält. Aus dem Verhalten lässt sich auch auf Gefühlszustände schließen - so dass Autocomputer auf lautes Fluchen und Gestikulieren mit beruhigender Musik reagieren könnten. Und wenn der Fahrer gähnt, peitschen sie ihn mit Musik wieder an. Obwohl - eine kleine Pause und frische Luft schaden sicher auch nicht.

Wer seine Hände nicht bewegen kann, sitzt Tastatur und Maus chancenlos gegenüber. Eine Computer-Steuerung per Eye-Tracking eröffnet da neue Möglichkeiten - aber auch für die Werbe-Industrie, die die Verweildauer von Blicken bei ihren Botschaften auf PC und Fernseher messen könnte. Sprachsteuerung wirkt dagegen wie ein alter Hut - besonders, wenn Apple das iPhone 4S jetzt mit der Diktierfunktion Siri ausstattet.

Noch weiter geht die Verschmelzung, wenn Sensoren Gehirnströme oder den Blutzuckerspiegel messen, um bei Schlaganfall und Zuckerschock den Notarzt zu holen. Fast perfekt ist die Symbiose mit einer Roboter-Arm-Prothese, die durch Nerven-Schnittstellen gesteuert wird.

Dieser Artikel basiert auf einem Beitrag der CW-Schwesterpublikation CIO.

Zur Startseite