Das können Mobile Devices in der Zukunft

Die Zukunft für Mobile Devices heißt Affective Computing

Annette Zimmermann ist Research Director bei Gartner Research und gehört dem Team Personal Technologies seit 2006 an. Sie ist ausserdem als Agenda Manager für die Personal Technologies Agenda weiltweit bei Gartner verantwortlich. Zu ihren Themenbereichen gehört Trends im globalen Smartphone-Markt, ortsbezogene Dienste, digitale Karten und die Analyse des wachsenden Wearables-Markt. Frau Zimmermann ist Co-Author einer aktuellen (2015) Bucherscheinung (“Handbuch Praxis Mobiles Internet”). Vor ihrer Tätigkeit bei Gartner war Frau Zimmermann als Management Consultant bei der Münchner Firma Barkawi & Partner tätig.
Emotionen mit Hilfe von Technologien messen – darum geht es bei Affective Computing. In fünf Jahren werden 20 Prozent unserer mobilen Endgeräte Emotionen erkennen. Die gewonnenen Daten können für individuelle Dienste oder für auf Crowdsourcing basierende Analysen genutzt werden.
Auch Microsoft experimentiert im Project Oxford mit dem visuellen Erkennen von Emotionen.
Auch Microsoft experimentiert im Project Oxford mit dem visuellen Erkennen von Emotionen.
Foto: Microsoft

Emotionen und Gemütszustände erkennen - mit diesem Thema beschäftigen sich unterschiedliche Forschungsbereiche wie Psychologie, Medizin und Marktforschung. Seit einiger Zeit mischen nun auch Technologie-Anbieter mit. Wearables protokollieren unseren Schlaf, zählen Schritte und Herzschläge und messen den Blutdruck. Smartphones haben schon Milliarden dieser Aktivitätsdaten gesammelt, anhand dessen die zugehörigen Apps dem Nutzer Vorschläge präsentieren, um die Motivation zu steigern. Derzeit sehen wir die Anfänge einer neuen Geräteklasse auf dem Markt, die Emotionen und Gemütszustände erkennen kann und die Nutzer auf eine neue Art und Weise anspricht.

Affective Computing und Spracheingabe

Emotionen können durch eine Kombination verschiedener Sensoren erkannt werden, wie zum Beispiel durch das Mikrofon. Diese sind in den meisten Unterhaltungselektronikgeräten zu finden und bieten eine Möglichkeit, Unterschiede in der Intonation der Stimme festzustellen. Technologie-Unternehmen wie Beyond Verbal sind aus dieser Idee heraus entstanden und konzentrieren sich allein auf Stimmanalyse. Die Plattform kann durch die Intonation der Stimme die Emotion des Nutzers in sieben verschiedene Kategorien einteilen, darunter "Ausgeglichen", "Traurig", "Wütend" oder "Enthusiastisch".

Sprachassistenten wie Siri, Google Now oder Cortana werden intelligenter.
Sprachassistenten wie Siri, Google Now oder Cortana werden intelligenter.
Foto: Parallels

Diese Technologie-Unternehmen zielen vor allem auf Hersteller von Wearables ab, die ihre Produkte durch Spracheingabefunktionen erweitern wollen. Spracheingabe für Unterhaltungselektronikgeräte, vor allem im Umfeld der Heimvernetzung, wird in den nächsten Jahren noch ein interessantes Thema werden. Wir gehen davon aus, dass Sprachsteuerung als eine von mehreren neuen Eingabemechanismen in Zukunft häufiger verwendet wird.

Eine in den USA und Deutschland durchgeführte Gartner-Studie von Ende 2014 belegt, dass schon im letzten Jahr eine wachsende Anzahl an mobilen Nutzern Sprachassistenten wie Siri oder Cortana regelmäßig verwendeten. 24 Prozent der Befragten in Deutschland und 38 Prozent in den USA gaben an, in der letzten Zeit entweder Siri oder Google Now benutzt zu haben. Trotz dieser recht beeindruckenden Zahlen stehen wir noch immer am Anfang in diesem Markt.

Bildanalyse und andere Sensoren

Eine weitere Lösung für die Emotionsanalyse bieten Kameras, mit denen Hersteller wie Intel und Samsung bereits experimentieren. Hier geht es um weitaus komplexere Szenarien, als dass die Kamera ausgelöst wird, sobald der Sensor ein Lächeln feststellt. Intels RealSense-Technologie kann zum Beispiel die Reaktionen und Gemütszustände messen und zuordnen, die Probanden durchlaufen, während ihnen ein Video gezeigt wird. Ein anderes Experiment hat gezeigt, wie in einem Wearable verbaute Sensoren den Stresslevel auf der Basis von Puls und galvanischer Hautreaktion der Person analysieren können. Hier kommen in Zukunft auch neue Formen und Designs von Wearables zum Einsatz, um Material so adaptiv und angenehm wie möglich zu machen.

Anwendungsgebiete im Unternehmen und im Privaten

Affective Computing bietet Lösungsansätze zur individuellen Bestimmung von Gemütszuständen, um mit darauf abgestimmten Diensten zu reagieren. Dieses Prinzip funktioniert auch im Kollektiv. Eine Cloud-Architektur wird es ermöglichen, Datenpunkte von Gruppen oder großen Menschenmengen zu erfassen und zu analysieren, um die Reaktion und Stimmung derselben festzustellen.

Daraus ergeben sich Anwendungsbereiche sowohl im Unternehmens- als auch im Privatbereich.

1. Anwendungsgebiete in Unternehmen:

  • Gesundheit/Sicherheit: Anzeichen von Stress oder Müdigkeit können frühzeitig erkannt werden und einen Alarm auslösen. Für bestimmte Berufsgruppen wie Fernfahrer kann dies relevant sein, um etwa Unfälle zu verhindern.

  • Training/Coaching: Die Emotionsanalyse kann in Trainingsmodule integriert werden. Diese Technologie kommt bereits bei einigen Unternehmen zum Einsatz. Das System analysiert dabei die Stimmlage und bestimmt den Gemütszustand. Dadurch wird etwa die Interaktionen zwischen Servicemitarbeiter und Kunden verbessert.

  • Produkt-Marketing: Unternehmen können Kundenreaktionen auf ihre Produkte oder auf spezielle Events von Einzelpersonen oder ganzen Gruppen bestimmen. Das Beispiel von Jaguar Land Rover während Wimbledon 2015 könnte in ein paar Jahren die Norm sein. Anonym wird der Puls der Besucher gemessen, die eine Smartwatch oder ein Fitnessband tragen. Diese Werte werden mit anderen Sensoren in der Umgebung übereinander gelegt.

  • Gesundheit/Fitness: Wearables werden in den nächsten Jahren mit immer besseren Sensoren ausgestattet sein. Informationen wie Stress und Stimmung ist ein weiteres Puzzle-Teilchen im Zuge der Selbstvermessung ("Quantified Self"). Bestimmte Arten von Stress wirken sich negativ auf die Gesundheit aus und hier kann die Früherkennung Positives beitragen.

  • Heimvernetzung: Mit der steigenden Anzahl der Internet-fähigen Geräte im Haushalt wird sich auch die Interaktion mit diesen verändern. Diese Geräte werden durch Stimm- oder Gesichtserkennung auf unsere Stimmung reagieren.

2. Anwendungsgebiete für Privatnutzer:

  • Gesundheit/Fitness: Wearables werden in den nächsten Jahren mit immer besseren Sensoren ausgestattet sein. Informationen wie Stress und Stimmung ist ein weiteres Puzzle-Teilchen im Zuge der Selbstvermessung ("Quantified Self"). Bestimmte Arten von Stress wirken sich negativ auf die Gesundheit aus und hier kann die Früherkennung Positives beitragen.

  • Heimvernetzung: Mit der steigenden Anzahl der Internet-fähigen Geräte im Haushalt wird sich auch die Interaktion mit diesen verändern. Diese Geräte werden durch Stimm- oder Gesichtserkennung auf unsere Stimmung reagieren.

Inhalt dieses Artikels