Blick in Labors

Morgen steuern Gesten, übermorgen Gedanken die IT

14.05.2014 von Gabor Wraight
Mausklick - Touch - Gestik - Emotionen - Denken: Einstige Science-Fiction-Fantasien in der Mensch-Maschine-Interaktion stehen heute bereits vor der praktischen Anwendung. Modernste Technologien dringen tief in unser Leben vor.

Erinnern Sie sich an den Film Minority Report aus dem Jahr 2002? Tom Cruise steht vor einem halb transparenten, überdimensionalen Bildschirm und steuert es mit seinen Händen. Ohne es zu berühren.

Foto: ra2 studio - Fotolia.com

Ein Interface steuern, ohne es zu berühren? Eine Technologie, welche die Emotionen des Benutzers erkennt? Nutzer, die komplett in eine virtuelle Welt eintauchen? Wenn man im September 2013 über die IFA spazierte konnte man sehen dass all diese Visionen bereits Realität geworden sind. Was bis vor kurzem noch Science Fiction war, ist heute schon vielerorts im Einsatz - unser eigener Körper wird zum wichtigsten Eingabemedium.

Vor 15 Jahren musste man noch Programmierer sein, um überhaupt mit solchen Interfaces in Berührung zu kommen. Vor zehn Jahren wurde die breite Masse erreicht. Vor gerade einmal fünf Jahren läutete das erste iPhone die Touch-Revolution ein. Damals dachte kaum jemand, dass ein Telefon ohne Tasten jemals funktionieren würde. Doch auf einmal war es möglich mit einem Smartphone im Internet zu surfen. Was dann passierte, war der Eintritt in eine unglaubliche neue Welt mit deutlich vereinfachten Interaktionsmöglichkeiten.

Trend zum Interface ohne Eingabeknöpfe

Bis zum damaligen Zeitpunkt musste Software in erster Linie funktionieren. Heute soll sie den Benutzer begeistern. Ihm das Leben erleichtern. Einfach sein - und darüber hinaus Idealerweise unglaublich gut aussehen. Der Trend geht hin zum graphisch übersichtlichen stylischen textbasierten Interface ohne Knöpfe. iOS 7 ist dafür ein gutes Beispiel. Einige Funktionen wie zum Beispiel das Löschen einer einzelnen E-Mail ist hier nur mit Hilfe von Gesten möglich. Dabei besteht allerdings höchste Vorsicht. Wichtige, zentrale Funktionen hinter komplizierten Gesten zu verstecken, kann eine Benutzeroberfläche im schlimmsten Fall unbedienbar machen. Apple verlässt sich hierbei auf gelernte Gesten, die mittlerweile die meisten User kennen.

Touch-Kids fordern Innovationstempo ein

Wir leben heute im Zeitalter der so genannten Touch-Kids. Sie sind mit berührungssensitiven Geräten aufgewachsen und dementsprechend "verwöhnt". Sie haben ganz neue Erwartungen an das Erlebnis und die Performance einer Benutzeroberfläche, als ältere Nutzer, die noch mit früheren User-Interfaces in der IT-Welt sozialisiert wurden. Die jungen User sind zwangsläufig verwöhnt, weil sie es nicht anders gewohnt sind. Alles was nicht die Performance eines aktuellen iPads erreicht, wird deren Standards nicht gerecht. Für diese Touch-Kids geht es heute darum wie sich etwas "anfühlt". Wenn ein Interface nicht die erwartete Reaktion zeigt, klicken User meistens fester und mehrfach. Das führt in der Regel zu einer Mehrfachauswahl. Oder zu einer Falschen. Jedenfalls nicht zur gewünschten Auswahl.

Trends in der Mensch-Maschine-Kommunikation -
Mensch-Maschine-Interaktion
In der Mensch-Maschine-Interaktion tut sich was. Hier finden Sie einige neue und bemerkenswerte Entwicklungen, die zum Teil schon dem Forschungsstadium entwachsen sind.
Der virtuelle Supermarkt
Tesco Homeplus – Im virtuellen Store der britischen Supermarktkette lässt sich der Einkauf erledigen während man auf die U-Bahn wartet. Lebensgroße Produkte mit dem Smartphone scannen und bestellen. Der Einkauf wird an die Haustür geliefert.
Gesichtserkennung
Die Software SHORE vom Fraunhofer-Institut für Integrierte Schaltungen (IIS) erkennt das Geschlecht und ein ungefähres Alter. Zusätzlich werden Gesichtsausdrücke wie fröhlich, erstaunt, wütend und traurig erkannt.
Intelligente Heizungssteuerung
Die Geo-Location App und das Thermostat vom Münchner Start-up Tado ersetzt das bestehende Heizungsthermostat durch eine intelligente Geodaten-basierende Lösung.
Gestensteuerung
Der Controller von Leap Motion erkennt Hände und Finger. Man kann dadurch steuern, ohne eine Benutzeroberfläche zu berühren.
Gestensteuerung mit dem Unterarm
Das Wearable-Device MYO von Thalmic Labs soll positionsunabhängige Gestensteuerung erlauben. Das System erkennt Kontraktionen der Muskeln und schließt dadurch auf Gesten wie zum Beispiel Fingerschnippen.
Touch der nächsten Dimension
Touche (Disney Research) ermöglicht Touch und Gestenerkennung auf Menschen, Displays, Flüssigkeiten und zahlreichen Alltagsobjekten.
Ganzkörper-Tracking
Ganzkörper-Tracking mit einer Standard-RGB-Kamera (Rot, Grün, Blau). Die Software Extreme Motion errechnet in Echtzeit die Bewegungen.
Gestenerkennung
Die Software SigmaNIL erkennt natürliche User-Interaktionen, stellt sie auf dem Bildschirm dar und ergänzt bei Bedarf um grafische Elemente (hier ein Star-Wars-Schwert).
Digitalisierte Bewegungen
Mit dem V Motion Project werden Musik und Bilder durch Bewegung lebendig. Das Video zeigte einen Tänzer, dessen digitales Abbild auf eine große Fläche projiziert wird.
Augen steuern Mauszeiger
Mit den Augen eine Benutzeroberfläche steuern: Die Soft- und Hardwarelösung Tobii REX trackt die Augen des Users und steuert damit den Mauszeiger. Die Lösung ist unter anderem als Touch-Ersatz gedacht, wenn etwas sehr kleine Bildschirmelementen angesteuert werden sollen.
Radar-Touch
Der Laser erkennt Bewegungen auf großen Screens auch aus großer Entfernung. Ein Radius bis zu 60 Meter ist hier möglich. Das Video zeigt, wie die Bewegungen der Menschen vor dem Screen mit der Darstellung des Schildes auf dem Screen synchronisiert werden.
Neue Spielzeugwelten
Cars 2 AppMATes verbindet die physikalische und digitale Welt. Hier fährt ein Kind mit einem realen Spielzeugauto über eine virtuelle Rennstrecke auf dem iPad.
Holografische Darstellung
Mit einem Heliodisplay sind beliebige Projektionen auf Luft machbar.
Microsoft Kinect in der Medizin
Mit Kinect und via Brain Scans werden 3D Patientendaten auf den Menschen augmentiert. Röntgendaten lassen sich beispielsweise mit dem Bewegtbild eines Kopfes überlagern. Damit ergibt sich ein vermeintlicher in das Innere des Schädels.
Virtual Reality
Durch fremde Welten fliegen: Mit dem System "Oculus Rift Immersive Virtual Reality", einem Headset, wird das zum Kinderspiel.
Projection Mapping im großen Stil
Das Projekt Visual Drugstore Projection Mapping zeigt am Beispiel der Alten Pinakothek in München, wie sich Fassaden mittels Lasertechnik verfremden und gestalten lassen.
Intelligentes Glas
Der Film „Corning – A Day Made of Glass 2“ zeigt visionäre Gedanken über den Alltag der Zukunft mit Glas-Technologien.
Messung von Gehirnströmen
Die Software mico erkennt im Zusammenspiel mit einem Kopfhörer die Stimmung des Nutzers. Dazu integriert der Kopfhörer einen Sensor, der die Gehirnströme messen soll. Je nach Verfassung des Nutzers spielt die Software passende Musik.

Die Erwartungen der User sind den Entwicklern oft weit voraus. Vormals sinnlos erscheinende Ideen werden manchmal im Nachhinein zu Game-Changern. So wurde beispielsweise das analoge Telefon entwickelt ohne konkrete Anwendungsmöglichkeiten. Gegen Ende des 19. Jahrhunderts wurde es zuerst verwendet, um Konzerte und Gottesdienste zu übertragen. Erst später kam der eigentliche Zweck des Telefonierens zum Einsatz. Manchmal wird ein Produkt, das zuerst erfolglos war, zweckentfremdet und es wird zu einem Bestseller.

Grenzen zwischen realer und virtueller Welt schwinden

In der aktuellen Entwicklung von User-Interfaces geht es zunehmend darum, die digitale mit der realen Welt zu verbinden. Um eine Augmentation und Bereicherung des Erlebnisses. Alle Sinne des Menschen müssen angesprochen werden. Er mag eingebunden werden - nach dem Motto: Involviere mich und ich werde verstehen. Die intelligente Google-Brille (Google Glass) ist das bekannteste Beispiel dafür. Sie reichert die Umgebung des Brillenträger mit Informationen zu seiner Umwelt an, indem sie ihm etwa den Weg zur nächsten U-Bahn-Station weist oder Wikipedia-Einträge zu historischen Gebäuden ins Sichtfeld projiziert. Dabei spielen die Grundsätze Portabilität und Wearability eine zentrale Rolle.

Überblick über Smartwatches und Cyberbrillen
Die bekannteste Ausführung der AR-Brillen ist das Projekt "Google Glass". Die Brille stellt Umgebungsinformationen direkt im Blickfeld des Trägers dar. Mittels Sprachsteuerung lassen sich Befehle (etwa E-Mail-Versand) ausführen. Bis Ende 2013 soll die Brille in den Handel gelangen.
Überblick über Smartwatches und Cyberbrillen
Es gibt eine Vielzahl von tragbaren Minicomputern wie etwa Smartwatches und AR-Brillen (Augmented Reality). Hier finden Sie einen Überblick über die bekanntesten wearable Devices. Einige sind bereits verfügbar, andere existieren bislang nur auf Skizzen in den Forschungslabors.
Project Google Glass
Die bekannteste Ausführung der AR-Brillen ist das Projekt "Google Glass". Die Brille stellt Umgebungsinformationen direkt im Blickfeld des Trägers dar. Mittels Sprachsteuerung lassen sich Befehle (etwa E-Mail-Versand) ausführen. Bis Ende 2013 soll die Brille in den Handel gelangen.
Microsofts Forschungspläne
Von Microsofts Plänen im Segment Augmented Reality (AR) gibt es bislang nur Skizzen. Diversen Online-Medien zufolge hat der Softwarekonzern beim US-Patentamt ein Patent für eine AR-Brille eingereicht. Während Google seinen Entwurf für den täglichen Einsatz vorsieht, beschränkt Microsoft den Gebrauch der Brille zunächst auf Live-Events, indem sie etwa Hintergrund-Informationen zu einem Baseball-Spiel einblendet.
Olympus zeigt Prototyp
Auch Olympus plant eine Datenbrille im Stil von Google Glass. Das Modell "MEG 4.0" wiegt laut Hersteller einschließlich Batterie nur 30 Gramm. Die Daten holt sich die Brille über eine Bluetooth-Verbindung vom Smartphone. Anders als beim Google-Projekt Glass ist aber keine Kamera eingebaut. Bislang gibt es nur Prototypen.
Sony reicht Patent ein
Zuletzt wurde bekannt, dass auch Sony dem Wettbewerber Google im Markt für wearable Devices nacheifert. Der japanische Konzern hat in den USA ein Patent für eine Datenbrille eingereicht. Die Besonderheit: Sonys Pläne sehen zwei Bildschirme mit einer hohen Auflösung von 1920 x 1080 Bildpunkten (Full HD) vor.
Brother projiziert auf die Netzhaut
Der japanische Elektronikkonzern Brother verfolgt wiederum einen anderen Weg. Der "AiRScouter" integriert ein so genanntes Head-mounted-Display, das die Bilder im Gegensatz zu herkömmlichen Videobrillen direkt auf die Netzhaut projiziert. Das Bild soll transparent erscheinen und die Sicht nur marginal beeinträchtigen.
Gerüchte um Apple iWatch
Von dem Hype um die Datenbrillen ließ sich Apple bis dato nicht anstecken. Hartnäckig halten sich indes die Gerichte, dass der Konzern an einer intelligenten Armbanduhr arbeitet. Seriöse Medien wie etwa die "New York Times" und das "Wall Street Journal" spekulierten bereits über die Funktionen. Bilder gibt es naturgemäß nicht, nur Dementis. Möglicherweise ähnelt die offiziell nicht bestätigte iWatch aber dem iPod Nano, der sich auch als Uhr verwenden lässt.
Ladenhüter von LG
Die Idee der intelligenten Armbanduhr ist keinesfalls neu. Bereits 2009 hat beispielsweise LG die "GD910" auf den Markt gebracht. Der Touchscreen konnte unter anderem Telefonanrufe auslösen und annehmen. Erfolgreich wurde die schlaue Uhr dennoch nicht.
Samsung stolpert und startet erneut
Auch Samsung hat sich schon in dem Geschäft versucht. Ebenfalls 2009 kam das Modell "S9110" auf den Markt. Das Gerät könnte mit Outlook synchronisieren, Musik abspielen und telefonieren. Das alles für den stolzen und abschreckenden Preis von 600 Dollar. Aktuell startet Samsung einen zweiten Anlauf in das Smartwatch-Geschäft: Entsprechende Gerüchte hat Samsung kürzlich offiziell bestätigt.
I'm Watch ist verfügbar
Die i'm Watch ist eine Smartwatch vom gleichnamigen italienischen Hersteller. Die Uhr mit Android-Betriebssystem ist mit dem Smartphone verbunden und ermöglicht am Handgelenkt Anrufe, E-Mails, Facebook, Twitter und Co. Sie kostet knapp 300 Euro. Erste Tester sind von der technischen Leistungsfähigkeit nicht sonderlich begeistert.

Alles wird vermessen, sogar Vitalfunktionen

Gut zu beobachten ist das bei der so genannte Quantified-Self-Bewegung. Die Idee dahinter ist, dass Nutzer mit Hilfe von Sensoren permanent Daten über wesentliche Körperfunktionen erheben, sie mit Hilfe von Software auswerten, um Persönlichkeitsentwicklung und Gesundheit zu fördern und zu beobachten. Mittlerweile veranstalten Interessenten in weltweit mehr als 50 Städten regelmäßig stattfindende "Meetups". Dabei sollen Lösungen auf Basis persönlicher Daten erstellt werden. Beispiele dafür sind etwa das "Nike+Fuelband" oder das "UP"-Armband von Jawbone. Diese wearable Electronics wurden mittlerweile so stylisch designt, das sie gerne getragen werden.

Auch in anderen Segmenten des Alltags machen sich intelligente Sensoren breit. So genannte Smart Objects verbinden mittlerweile von einander unabhängige, alleinstehende Geräte via Internet oder lokalen Netztechniken. Zuhause spricht der Rauchmelder mit einem gekippten Fenster und der Dunstabzugshaube. Relevante Informationen werden gesammelt und gefiltert auf einem Smart Device angezeigt. Der Hausbesitzer bekommt beispielsweise die Meldung, dass sein Hund soeben in den Garten gegangen ist.

5 Knackpunkte bei wearable Devices
Googles Datenbrille und Samsungs Smartwatch sind die prominentesten Beispiele für wearable Devices, Geräte also, die der Nutzer im wortwörtlichen Sinne am Körper trägt. Diese Entwicklung stellt CIOs vor fünf Herausforderungen, meint jedenfalls Robert Mullins von der Networkworld.com.
1. Den MDM-Anbieter überprüfen
In vielen Unternehmen ist es mittlerweile Usus, dass Mitarbeiter die eigenen Geräte nutzen. Mobile Device Management (MDM) dürfte daher gesetzt sein. Allerdings eignet sich nicht jede MDM-Software auch für die neuen wearable Devices.
2. Nicht die Geräte managen, sondern die Anwendungen
Möglicherweise geht es weniger um das Management der mobilen Geräte als um das der Anwendungen. Dafür plädiert jedenfalls Ahmed Datoo, Vice President Produkt Marketin (Xen Mobile) bei Citrix.
3. Alle Aspekte der Sicherheit bedenken
Unternehmen haben Angst vor Malware, Mitarbeiter vor Verletzung ihrer Privatsphäre. Bei wearable Devices verschärft sich dieses Problem - die Geräte werden am Körper getragen, "berühren" den Nutzer also viel stärker.
5. Das Positive sehen
Die Vorteile von wearable Devices sind nicht zu übersehen. Flugzeug-Mechaniker zum Beispiel, die an der Maschine stehen und über ihre Datenbrille Informationen abrufen können, haben die Hände zum Arbeiten frei.

Das Münchner Start-Up Tado betreibt derzeit einen Betatest mit einem Thermostat, das die Heizung herunter regelt, sobald der Bewohner das Haus verlässt, und sie rechtzeitig wieder aktiviert, wenn er sich auf den Heimweg macht. Hierzu erfasst das System die Geo-Daten des Smartphones des Hausbesitzers. Sollte der auf Geschäftsreise sein und nicht nach Hause kommen, wird die Heizung erst gar nicht erst aktiviert. Dies soll Heizkosten sparen und nebenbei die Umwelt schützen.

Auch in der Werbung und im Konsumgütermarkt tun sich mit den neuen Eingabemedien völlig neue Formen der Kundenansprache auf: ein Konsument steht vor einer riesigen Videowand und sieht das Produkt, für das er sich interessiert, in Originalgröße vor sich. Er ändert die Farbe des Produkts durch einen Schritt zur Seite. Wechselt das Modell indem er mit der Hand eine "wischende Geste" zur Seite macht. Bestätigt die Auswahl indem er den Daumen hoch hält. Die Technologie des Systems erkennt in Millisekunden, ob der Kunde mit seiner Auswahl zufrieden ist. Das ist keine Zukunftsvision, sondern in ersten, modernen Showrooms und Shops bereits Realität.

Von der Gestenerkennung zum Body Mass Index

Technisch basieren diese Systeme zur Erkennung von Gestik auf 3D-Kamera-Technologien. Die Grundlagen wurden im Umfeld des israelischen Militärs ungefähr im Jahr 2005 entwickelt. Dort gab es offenbar das erforderliche Expertenwissen, denn um einen solchen Sensor zu fertigen, benötigt man umfangreiche Kenntnisse in den Bereichen Video, Signal Optimierung, Elektrooptik, Ergonomie und kognitiver Psychologie.

Das Unternehmen Microsoft hat die Relevanz und die Möglichkeiten dieser Technologie früh erkannt und zur Marktreife gebracht. Die aktuelle Generation der xBox 360 ist kompatibel mit dem so genannten Kinect Sensor. Dieser Sensor wird seit November 2011 verkauft und hat eine kleine Revolution in punkto Interaktionsmöglichkeiten gestartet.

Angry Birds Kinect
Dieser User hat sein iPod Touch mit Kinect verbunden, um damit Angry Birds zu spielen. Das Ergebnis zeigt folgender Clip.
Left 4 Dead 2 mit Kinect spielen
Valves Left 4 Dead 2 lässt sich am PC mittels Kinect zocken. Dazu benötigen Sie neben Kinect und dem Spiel auch das Toolkit FAAST von mxR Labs.
Kinect 3D Viewer
Den Kinect 3D Viewer finden Apple-Anwender im noch neuen MacStore. Sie können Microsofts Kinect an die USB-Schnittstelle des Apple-Rechners anschließen und dann eine 3D-Visualisierung der von der Kinect-Kamera gefilmten Tiefendaten anzeigen lassen. Sieht spektakulär aus - und villeicht auch ein bissel erschreckend manchmal.
Roboter via Kinect steuern
Auch ein High-Tech-Roboter lässt sich mittlerweile über Kinect und der Roboter-Software V-Sido steuern. Achten Sie mal im folgenden Video darauf, wie elegant der Roboter die Bewegungen der Person umsetzt…
Street Fighter IV via Kinect
Mit einer eleganten Bewegung einen Feuerball auf den Gegner abschießen: Mittels Kinect wird das in Street Fighter IV endlich Realität. Bisher musste man im Kampfspiel die passenden Tasten drücken, um einen Feuerball abzufeuern. Dank Kinect erfolgt dies nun mittels einer passenden Bewegung vor der Kamera. Neben Kinect, PC und Street Fighter IV wird FAAST (Flexible Action and Articulated Skeleton Toolkit) benötigt.
Xbox 360-Controller mit Bewegungserkennung
Manche Xbox-360-Besitzer sind ja neidisch auf das Motion-Sensing des Sixaxis-Controller der Playstation 3. Mit Kinect und KinEmote beta werden nun auch Bewegungen des Xbox-360-Controllers erfasst und im Spiel umgesetzt. Im folgenden Youtube-Clip wird das im Spiel Medal of Honor demonstriert.
Piano auf dem Fußboden
Mittels OpenKinect werden virtuelle Tasten auf den Fußboden projeziert, die dann anschließend von den beiden Anwendern im folgenden Clip mit den Füßen gedrückt werden, um eine schöne Melodie zu spielen.
Kinected Candy Machine
Dieser User hat einen kleinen Süßigkeiten-Automat mit einem Kinect verbunden. Sobald er die Hand unter dem Ausgabeschlitz des Süßigkeitenautomats hält, lässt Kinect eine Süßigkeit fallen…
Open-Source-Roboter
Mittels Kinect soll jeder seinen kleinen Open-Source-Roboter bauen können, der maximal 400 US-Dollar kosten soll. Wie das Ganze funktionieren soll, demonstriert Garrat Gallagher in folgendem Clip.
Kinect hilft beim Gang auf der Toilette
Mit einer Handbewegung öffnet sich der Toiletten-Deckel auf einem WC. Auch hier spielt Kinect eine wichtige Rolle.
Kinect macht Sie zum Superhelden
Dieser Kinect-Hack macht jeden Anwender zu einem Superhelden, aus dessen Händen beispielsweise gefährliche Laser-Strahlen kommen. Vorausgesetzt wird aber ein leistungsstarker PC.
Kinect Superstar
Dieser Entwickler hat Kinect und XNA Game Studio genutzt, um eine Applikation zu entwicklen, mit der man über Kinect seinen Avatar auf dem Bildschirm tanzen lassen kann.
Kinect Spiegel
Der Münchner Student Tobias Blum hat eine Kinect-Applikation entwickelt, die er "magischen Spiegel" nennt. Aber sehen Sie selbst:
Acroyoga
Matt Bell hat eine Software entwickelt, die mehrere mit Kinect aufgenommene Video-Streams in einem 3D-Raum wiedergibt. Das Ergebnis präsentiert mit mehreren Freunden, die eine Acroyoga-Vorführung geben.
Lichtschwerter-Duell
Mit diesem Kinect-Hack wird der Traum aller Star-Wars-Fans Realität: Einem Lichtschwert-Duell steht damit nichts mehr im Wege…
Kinect für Erwachsene
Das sich Kinect auch für Software für Erwachsene einsetzen lässt, demonstriert dieser Entwickler, der übrigens auch für ein Unternehmen arbeitet, das derartige Software entwickelt.
Kinect & Starcraft 2
Dieser User spielt eine Partie Starcraft 2 mittels einem an einem PC angeschlossenen Kinect.
Kinect + HMD + WiiRemote VR-FPS
Dieser Japaner verbindet Kinect mit einer WiiMote und Head Tracking um einen Egoshooter zu zocken.
Black & White mit Kinect
Dieser Gamer demonstriert, wie sich der Spiele-Klassiker Black & White via Kinect und FAAST steuern lässt.
Kinect als Nintendo Controller
In dieser Demo wird die Nutzung von Kinect zur Steuerung von Nintendo-Spielen via Bewegungen vor der Kamera demonstriert.

Es hat nicht lange gedauert bis findige Entwickler den Treiber gehackt haben und es somit möglich war, den Sensor an einen Computer anzuschließen und somit Zugang zu den Tracking Daten zu erhalten. Daraufhin entstand schnell eine Open Source Community, die Algorithmen zur Skelett- und Gestenerkennung für andere Entwickler verfügbar machte. Seitdem ist es grundsätzlich möglich Menschen und ihre Gliedmaßen zu erkennen. Diese Technologie ist mittlerweile soweit, dass sie innerhalb von Bruchteilen einer Sekunde die Konfektionsgröße eines Menschen erkennen kann. Es ist sogar möglich den Body Mass Index zu errechnen.

Maßgeschneiderte Angebote - je nach Stimmungslage

In zahlreichen Bereichen wurden diese oder ähnliche Technologien bereits in Systeme integriert. Sei es der Arzt, der während einer Operation durch 3D- Daten des Patienten navigiert, ein Fluglotse, der ein virtuelles Training absolviert, oder ein CEO auf der Jahreshauptversammlung, der die Folien seiner Powerpoint-Präsentation nur mit Gesten wechselt. Weiterklicken? War einmal.

Der Fortschritt der Technik schreitet zügig voran und beschäftigt sich heute bereits mit Anwenderschnittstellen, die nicht einmal mehr die Gestik benötigen. Das Fraunhofer Institut hat eine Software namens SHORE entwickelt. Diese Software registriert auf Basis eines 2D-Bildes oder Videos, ob ein Nutzer die Augen geöffnet hat. Sie erkennt recht zuverlässig das Geschlecht und das ungefähre Alter. Zusätzlich analysiert die Lösung Gesichtsausdrücke und kann Gefühlsregungen wie zum Beispiel fröhlich, erstaunt, wütend und traurig zuordnen. Je nach dem wie sich der Gesichtsausdruck des Nutzers ändert, erhält er andere Angebote, Hinweise oder Informationen. Software kann nun auch auf Emotionen reagieren.

Wie wird all dies morgen sein? Welche Fähigkeiten werden wir benötigen? Welche Interaktionen sind notwendig? Passiert künftig alles nur noch intuitiv? Benötigen wir in der Zukunft überhaupt technische Kompetenz, um Geräte zu steuern? All diese Fragen beschäftigen die Programmierer, Entwickler, Designer, Technologisten und Trendforscher von heute. Die einzige Interaktion in einem fahrerlosen Taxi von Google ist, dem Fahrzeug zu sagen, wohin man möchte. Vielleicht muss man es in nicht allzu ferner Zukunft sogar nur denken.

Technologietrends ändern sich laufend. Die Gründe: Etwas, für das es einen Bedarf gibt, existiert nicht. Oder eine bestehende Technologie funktioniert nicht mehr. Oder muss verbessert werden. Lässt man die Trends auf der IFA 2013 Revue passieren, dann wird klar: Vorerst geht die Entwicklung in Richtung touchloser Interaktion und sehr, sehr großen Screens mit sehr, sehr hoher Auflösung. Technologie wird immer präsenter in den Städten. Interaktive Displays tauchen überall auf. Kommunikation mit Maschinen wird perzeptuell.

Analog zur zwischenmenschlichen Kommunikation werden wir künftig Arme, Beine, Posen, Gesten, Ausdrücke und möglicherweise sogar Gefühle verwenden, um zu interagieren. Bereits in wenigen Jahren werden Touchscreens, wie wir sie heute kennen, riesige Ausmaße annehmen. Dabei kann theoretisch alles zum Touchscreen werden. Auflösungen werden so hoch sein, das wir mit dem bloßen Auge keine Pixel mehr erkennen können. Denkbar ist: Eine nahtlose Interaktion. Eine Berührung, ein Ausdruck oder ein Gedanke reichen aus. (jha)