Multitouch Data Fusion

Apple iPhone mit Augen, Stimme und Gestik steuern

08.09.2008
Apple hat sein Multitouch weiterentwickelt. Wie bisher soll das Display zwei Fingerberühungen gleichzeitig erkennen, außerdem fügt Apple eine Sprachsteuerung und eine Gestenerkennung hinzu.

Apple ließ eine Weiterentwicklung seiner Multitouch-Eingabefunktion patentieren: Multitouch Data Fusion soll neben der Bedienung mit einem Fingerdruck auch komplexe Sprachbefehle, Bewegungen der Augen und die Gestik des Nutzers erfassen und verarbeiten können. Apple verspricht sich davon eine breitere Funktionsvielfalt und eine einfachere Steuerung des Handys.

Das Apple iPhone soll künftig auch komplexe Sprachbefehle, Augenbewegungen und Gesten verstehen.
Das Apple iPhone soll künftig auch komplexe Sprachbefehle, Augenbewegungen und Gesten verstehen.

Der Hersteller nutzt eine integrierte Kamera, um Augenbewegungen und Gesten zu erfassen. Damit kann man das Gerät bedienen, ohne es in die Hand nehmen oder berühren zu müssen. Mittels Sprachbefehl könnte es auch aus der Ferne gesteuert werden, ohne Sichtkontakt zum Telefon zu haben. Vor allem im Auto wäre die erweiterte Multitouch-Funktion praktisch, wenn das Telefon beispielsweise in der Tasche steckt oder auf der Armatur liegt. Denn beim Autofahren darf man das Telefon nur in die Hand nehmen, um es woanders hinzulegen. Mit den Augenbewegungen soll der Benutzer Darstellungen, wie etwa Bilder oder Musiktitel, auf dem Display auswählen können. Anschließend könnte er sie per Sprachfehl in einen Ordner schieben oder bearbeiten.

Mit Multitouch revolutionierte Apple im Januar 2007 die Steuerung von Mobiltelefonen. Der Benutzer kann zum Beispiel Bilder vergrößern oder verkleinern oder in Internetseiten zoomen, indem er mit zwei Fingern über den Bildschirm streicht. HTC reagierte mit seiner Benutzeroberfläche TouchFLO und ermöglicht ebenfalls die Bedienung seiner Smartphones per Fingerdruck. Multitouch bietet bislang aber kein anderer Hersteller.

powered by AreaMobile