Eye-Tracking und Gesten-Erkennung

Das iPad war nur der Anfang

11.11.2011 von Kolja Kröger
Mit dem Touch-Prinzip haben Tablets die Erwartungen an die Bedienung von Endgeräten verändert. Gartner wagt einen Ausblick, wie wir künftig mit IT interagieren.
Schon jetzt nutzen Tablet-Nutzer ihr Spielzeug besonders gerne abends vor dem Fernseher.
Foto: goodluz, Fotolia.de

HP ist gescheitert an dem Versuch, ein OS für Tablets, Smartphones und PCs zu entwickeln, befindet Garter. Und die Gartner-Analysten sind sich sicher, dass auch Microsofts Spitzenstellung im OS-Markt ins Wanken gerät - wenn nicht Windows 8 ein Multitouch-Erlebnis auf Augenhöhe von iOS und OSX Lion bringt. Das schreibt Gartner in seinem jüngst erschienen Special-Report "iPad and Beyond: What the Future of Computing Holds".

Die These der Analysten: In fünf bis zehn Jahren hat das Tablet unsere Computer-Landschaft so weit umgekrempelt, dass wir die Flachrechner zum Steuern von Fernsehern und Waschmaschinen nutzen, dass sie Blutdruck messen und mit unseren heutigen PCs verschmelzen. Multitouch macht’s möglich, ist aber nur der Anfang neuer Interaktions-Formen von Mensch und Maschine.

Restaurants mit Touchscreen-Tischen

Multitouch ist nur der Anfang neuer Interaktions-Formen zwischen Mensch und Maschine. Schon arbeiten Forscher an haptischen Touchscreens, die Texturen zum Beispiel in Spiele einbauen - so dass Buttons sich anfühlen, als wären es echte Knöpfe zum Draufdrücken. Und wenn Computer Handzeichen ganz ohne Touch-Display erkennen, scheuchen Logistiker bald mit wenigen Gesten führerlose Gabelstapler durchs Lager.

Gehirnströme und Wutausbrüche messen

Neue Interface-Typen von Spracherkennung bis zu Gehirnströmen.
Foto: Gartner

Von dort ist es nur noch ein kleiner Schritt zur Verhaltenserkennung. Der Computer erkennt, wenn Senioren daheim stürzen und ruft den Rettungsdienst. Auch Big Brother profitiert, wenn die Videoüberwachung automatisch Ausschau nach möglichen Taschendieben und Terroristen hält. Aus dem Verhalten lässt sich auch auf Gefühlszustände schließen - so dass Autocomputer auf lautes Fluchen und Gestikulieren mit beruhigender Musik reagieren könnten. Und wenn der Fahrer gähnt, peitschen sie ihn mit Musik wieder an. Obwohl - eine kleine Pause und frische Luft schaden sicher auch nicht.

Wer seine Hände nicht bewegen kann, sitzt Tastatur und Maus chancenlos gegenüber. Eine Computer-Steuerung per Eye-Tracking eröffnet da neue Möglichkeiten - aber auch für die Werbe-Industrie, die die Verweildauer von Blicken bei ihren Botschaften auf PC und Fernseher messen könnte. Sprachsteuerung wirkt dagegen wie ein alter Hut - besonders, wenn Apple das iPhone 4S jetzt mit der Diktierfunktion Siri ausstattet.

Noch weiter geht die Verschmelzung, wenn Sensoren Gehirnströme oder den Blutzuckerspiegel messen, um bei Schlaganfall und Zuckerschock den Notarzt zu holen. Fast perfekt ist die Symbiose mit einer Roboter-Arm-Prothese, die durch Nerven-Schnittstellen gesteuert wird.

Dieser Artikel basiert auf einem Beitrag der CW-Schwesterpublikation CIO.