Apps waren gestern

Willkommen in der Post-App-Ära

Mark Zimmermann weist mehrere Jahre Erfahrung in den Bereichen Mobile Sicherheit, Mobile Lösungserstellung, Digitalisierung und Wearables auf. Er versteht es diese Themen aus unterschiedlichsten Blickwinkeln für unternehmensspezifische Herausforderungen darzustellen. Hierzu ist er auf nationale Vorträgen und als freier Autor für Fachpublikationen tätig.
Anstelle via Apps und Suchmaschinen interagieren wir künftig zunehmend über digitale Assistenten wie Siri, Google Now oder Cortana mit Devices, Auto. Smart Home etc.

Smartphones haben unser privates Leben und die Gesellschaft geprägt und damit die Wirtschaft verändert. Immer regelmäßiger erscheinen neue Apps, die das Verhalten vieler Menschen (positiv) beeinflussen. Ein Wegdenken ist nicht mehr vorzustellen, wir sind abhängig geworden. Hatte die Post-PC-Ära die altertümliche "Programme am PC-Monitor"-Welt abgelöst, steht schon die nächste Ära vor der Tür, denn wir alle befinden uns an der Schwelle zur Post-App-Ära und jeder von Ihnen (Smartphone-Nutzern) hat bereits Bekanntschaft mit dieser neuen Ära geschlossen.

Der virtuelle Sprachassistent

Sprache ist das natürlichste Interface. Digitale Assistenten wie Siri von Apple oder Cortana von Microsoft läuten diese Post-App-Ära ein. Aber nicht nur Apple und Microsoft bieten diese Assstenten. Auch Google (Google Now) oder Amazon (Echo) sind hier vertreten.

Heute ist der Funktionsumfang noch sehr rudimentär. Es darf jedoch davon ausgegangen werden, dass die (Business-) Logik der digitalen Dienstleister nicht mehr nur als App, sondern als digitale Dienstleistung (Cloud Service) zur Verfügung stehen und per API an die Assistenten angebunden werden. Dies ermöglicht es den digitalen Assistenten, ständig dazuzulernen. Dieses wird stetig angereichter, um das bisher gesammelte Wissen über den Anwender selbst, durch sein Verhalten im Internet.

Ein Grund für den Erfolg von virtuellen Assistenten, beim Nutzer, ist Bequemlichkeit. Man möchte nicht mehr für jede Marke, jedes Problem Idee Herausforderung eine Extra-App starten.

Dabei ist nicht nur die API relevant, sondern auch die Interpretation der gestellten Aufgabe. Hinter den digitalen Assistenten steckt anspruchsvolle Technologie, nicht nur bei der Spracherfassung und -erkennung. Von der Interpretation der gesprochenen Inhalte bis zur Entwicklung sinnvoller Antworten ist es kein einfacher Weg.

Die "gefühlte" Intelligenz

Amazon Echo hört auf Sprachkommandos und kann etwa auch den Wecker stellen, die Einkaufsliste ergänzen und alle möglichen Fragen mit Hilfe von Internet-Quellen wie der Wikipedia beantworten.
Amazon Echo hört auf Sprachkommandos und kann etwa auch den Wecker stellen, die Einkaufsliste ergänzen und alle möglichen Fragen mit Hilfe von Internet-Quellen wie der Wikipedia beantworten.
Foto: Amazon

So wirbt beispielsweise Amazon Echo damit auf Sprachkommandos zu hören und zu verstehen. Nutzer denken sofort an SciFi-Serien wie Raumschiff Enterprise, wenn Captain Pickard mit dem Schiffscomputer per Sprache interagiert.

Die Tücken stecken jedoch im Detail. So funktioniert das Stellen eines Weckers meist noch problemfrei. Das Ergänzen eines Einkaufszettels sorgt aber schon für Schwierigkeiten. Sagen Sie "Alexa, setze Papier, Stift und Radiergummi auf meine Einkaufsliste" quittiert Alexa dies noch freundlich. Ein Abfragen "Alexa,was steht auf meiner Einkaufsliste?" versteht der intelligente Lautsprecher auch noch. Die Antwort zeigt aber das Problem, denn diese lautet "Du hast ein Produkt auf der Einkaufsliste Papier Stift und Radiergummi".

Das Erkennen von Sprache, also das Überführen (Transkribieren) von Sprache in Text, funktioniert häufig. Virtuelle Assistenten müssen dabei nicht nur mehr als 50 Sprachen beherrschen, sondern auch eine Reihe an individuellen Dialekten. So verkaufen Bäcker in Südbayern "Semmeln", die ihre Kollegen in Nord- und Ostdeutschland als "Brötchen" bezeichnen.

Das inhaltliche Verstehen obliegt dem Entwickler der dahinter liegenden Dienste, denn dieser bekommt, am Beispiel von Amazon Echo, den gesprochenen Text übergeben und muss sich selbst um alle Kombinationsmöglichkeiten in Sachen Satzbau und Wortwahl kümmern.

Dies erklärt auch, warum es für Amazon Echo mehr "Apps" gibt als für Siri von Apple. Bei Apple gibt es feste "Typen" von Interaktionsmöglichkeiten (z.B. Navigieren, Nachrichten, ...) mit Siri. Dafür erhält die jeweilige App die Nachricht bereits korrekt übergeben und muss sich nicht mit Dingen beschäftigen wie "Schreibe eine Nachricht an...", "Sage meiner Ehefrau ..." oder "Schicke eine Mitteilung an...". Bei Amazon Echo erhält die App komplette Sätze und muss das "herausfischen" selbst bewältigen.

Das "Verständnis" (verbal/inhaltlich) der menschlichen Aussprache in Kombination mit den (starren) API-Methoden der digitalen Dienstleister, nicht nur von Amazon Echo, wird sich durch die Qualität der Assistenten maßgeblich unterscheiden. Deshalb geben viele Firmen nicht nur der digitalen Analyse die Auswertung der "Eingaben" in die Hand. Im Hintergrund arbeiten oft noch zusätzlich Menschen, die die gestellten Fragen und Aufgaben analysieren, um das "Verständnis" für zukünftige Versionen zu optimieren.

Bei dem "Verständnis" spielen viele Kriterien eine Rolle, um beispielsweise Mehrdeutigkeiten und Unsicherheiten korrekt zu behandeln. Aber auch die Kontextualität, also das Verstehen und Identifizieren von Elementen im direkten Zusammenhang, spielt eine entscheidende Rolle.

Dies hilft, Bedeutung, Syntax, Ort und Zeit mit Regularien, Profilen, Aufgabe, Zielen und Prozessen zu verbinden. Daraus die richtigen Schlüsse zu ziehen und Informationen aus der Interaktion zu verwerten, zukünftig immer mehr gemischt mit Sensordaten (visuell, gestisch, auditiv), stellt eine enorme Herausforderung dar, nicht nur für virtuelle Assistenten.

Dabei bieten diese Assistenten nicht nur Concierge-Services für alle Lebenslagen, sondern stellen vielmehr auch den Schlüssel zu einer interaktiven und barrierefreien Computer-Nutzung dar. Durch die zunehmende Digitalisierung des Alltags und die stetige Präsenz des Internet in allen Lebenslagen werden auch die digitalen Assistenten stark an Bedeutung gewinnen. Die Verknüpfung der Assistenten mit immer kleineren und verteilteren Sensoren und Systemen (IoT) wird dies zusätzlich beflügeln.

Eine haptische Interaktion ist von da ab nicht mehr notwendig, um z.B. die Heizung in Ihrem Smart Home zu steuern. Auch Interaktionen im Auto, mit dem TV, den Haushaltsgeräten oder zur Informationsgewinnung werden damit nicht mehr notwendig sein.

Wurde man früher beim Telefonieren mit einem Headset im Ohr beim Aldi komisch angesehen, werden wir in Zukunft viel mehr mit unserer IT sprechen. Dabei werden diese Interaktionspunkte unterschiedlich sein.

Wearables als Übergangslösung

Ich bin der festen Überzeugung, dass Wearables (z.B. Apple Watch) hier maßgeblich als Brückentechnologie genutzt werden. Digitale Assistenten entwickeln sich damit zu einem neuen virtuellen Gatekeeper im Internet und treten als "Gerät" in den Hintergrund. Ein Blick auf das Handgelenk oder das Klopfen an den Kopfhörer bringen den Nutzer näher an die digitale Interaktion.

Der Markt für Wearables wird im Laufe der nächsten Jahre weiter wachsen. So etablieren sich gerade Wearables mit entsprechenden Assistenten in der Industrie. Mussten früher Monteure eine Masse an Diagnose-Bildschirmen im Blick behalten, werden diese nun aktiv am Handgelenk informiert, an welcher Maschine beispielsweise welche Verbrauchsmaterialien demnächst nachgefüllt werden müssen.

Hinweis am Rande: Im Vergleich zu virtuellen Assistenten auf Wearables stehen Smartglasses als Arbeitsbrille zu weit hinten an. Diese sind häufig zu schwer, schränken das Sichtfeld ein, reduzieren das einfallende Licht und halten einfach keine Arbeitsschicht durch.

Mobile Geräte brachten das Konzept der Apps dem Nutzer näher - viele kleine Helferlein statt monolithische Softwaremonster helfen dem Nutzer. Die reduzierte Komplexität ist hier das Zauberwort. Die digitalen Assistenten, egal ob audididaktisch oder als Chat-Interaktion stellen den Wandel von einer Mobile-first-Interaktion zu einer AI-first-Interaktion dar. Das Interagieren wie mit einem Freund überbrückt die Klufft zwischen Mensch und IT.

Chat-Bots sind die kurzfristige Zukunft

Chat ist für die meisten Leute ein besseres Medium als das Telefon, dies gilt insbesondere für jüngere Leute. Die Integration der virtuellen Assistenten in Chat-Systeme wird auch (vereinfacht) als "Bot" bezeichnet.

Intelligente Bots helfen bereits (unbewusst) heute dem Nutzer. Es gibt heute schon einige Bot-basierte Assistenzsysteme im Internet. So ist beispielsweise der Support-Chat eines ÚS-amerikanischen Computerkonzerns bereits Bot gesteuert.

Der Nutzer chattet hier beispielsweise mit einem "Brad" oder einer "Marie" und bemerkt nicht, das es sich nur um ein Programm auf einem Server handelt. Kommt der Bot in die Situation, den Chat nicht mehr sinnvoll aufrecht halten zu können, übernimmt ein Mensch. Dieser führt (noch) durch die Sonderfälle. Ist der Fall abgewickelt, übernimmt der Bot wieder die Abfrage von Zahlungsinformationen oder der postalischen Adresse.

Spannend wird dies in Zukunft auch bei den aktuellen Vergleichsportalen und Produktkonfiguratoren. Und zwar dann, wenn der Bot auch hier nicht als solcher erkannt wird. Die Auswahl eines Stromanbieters lässt sich per Bot sicherlich automatisieren. Der Erwerb und die Beratung bei Photovoltaik-Anlagen hingegen bedarf (noch) einem Menschen zur Interaktion.

Bei Produktkonfiguratoren fallen mir die Autokonfiguratoren als abschreckendes Beispiel ein: Anstatt erst einen Motor mit Getriebe auszuwählen, um zu erfahren, welche Konfigurationen überhaupt noch möglich sind, können Bots die wichtigsten Eigenschaften abfragen und den Nutzer viel schneller mit einem brauchbaren Ergebnis beglücken.

Diese Bots werden Apps und Websites maßgeblich beeinflussen oder gar ersetzen. Eine interessante Übersicht von Bots ist unter https://botlist.co einzusehen.

Plattformen wie der Facebooks Messenger werden zukünftig Kundendienste betreiben können, ohne dass der Nutzer sich durch das Internet (suchend) bewegen muss. Das Zusammenwirken von intelligenter Software und menschlicher Interaktion macht Kundendienst wieder zu einer positiven Erfahrung für Kunden und erhöht die Effizienz im Unternehmen.

Neue Welt, nicht ohne Risiken

Es darf davon ausgegangen werden, dass die Assistenten nicht mehr lange brauchen, auch diverse Rahmenbedingungen zu erkennen. Die Einsparungen aufgrund des schnelleren auffinden von Informationen, der Reduzierung von Stillstandzeiten in der Produktion oder die allgemeine Beschleunigung von Prozesslaufzeiten gehen nicht ganz ohne Risiken einher.

So verrät beispielsweise die menschliche Stimme viel über den Nutzer. Ist dieser heiser, könnten die Assistenten zukünftig nebenbei gleich die passenden Medikamente anbieten. Und diejenigen mit chronischem Husten müssen sich vielleicht bald auf höhere Beiträge in der Krankenversicherung freuen.

Gerade letzteres wirft den Blick auf den Datenschutz. Viele Assistenten speichern (unterschiedlich lange) die (verbale) Interaktion. Wozu diese Daten genutzt wurden/werden, ist dem Nutzer oft nicht transparent dargelegt.

Digitale Revolution, auch für die Internet Unternehmen

Es darf erwartet werden, dass z.B. auch bisherige Internet-Riesen wie Google Marktanteile verlieren werden. So sehe ich den Marktanteil bei der klassischen Suche im Internet und damit dem universellem Zugang zur Vielfalt des Internets gefährdet. Dieser wird sich auf die digitalen Assistenten verteilen.

Hat die Internet-Industrie mit der Post-PC-Ära die klassische Wirtschaft revolutioniert, revolutionieren digitale Assistenten die Internet-Industrie selbst.

Die Frage ist nur, welcher von den aktuellen (oder neuen) digitalen Assistenten und damit deren Anbietern sich durchsetzen wird. Ich hoffe auch, dass die Ausrichtung auf plattformübergreifende Assistentdienste nicht bereits verpasst wurde. (mb)

 

Mark Zimmermann

Gerade mit Blick auf die "Bots" die Microsoft gerade angeht und verfolgt denen ich, werden die Assistenten ordentlich an Funktionatlitäten gewinnen.

Clif Meschke

Der Haken an der Sache zum einen Spionieren sie zu viel zum anderen verstehen wenig verbal wie syntakisch noch haben sie benötigte Schnittstellen nicht. Ich benutzte Cortana und Google Now und ein Freund hat Siri auch noch die gleichen Befehle geben während Cortana und Google Now keinen Kalender Eintrag erstellen konnten hat Siri zwar angefangen hat aber immer wieder Sachen falsch verstanden. Wir sind Kölner und des Hochdeutsch mächtig also einkaufliste machen auch hier scheiterten die Assistent stats Text 2 Speech sollten wir Krikeln und beim Rewe brachte als Anwort wo man erinnert werden möchte brachte uns in eine Vorbeiredeschleife da Siri nichts mit dem Ort Rewe anfagen konnte und man erstmal wissen müsste wie die Adresse des Rewe war. Wer sich ersthaft mit Werbeversprächungen der Firmen ködern läßt seine Daten in die abzutreten um dafür den Frust und das erforschen Künstlicher Intelligenz zu bezahlen dafür das man entnerft aufgibt oder man Gerade kein Netz hat oder nur unzureichende Bandbreite weil das Netz Zuhause für Sky in 3D in Full HD mal eben 20GBit drauf gehen oder die Straße in Köln nicht erschlossen ist und die Provider dort nicht mehr als 2 Mbit bringen oder einfach dort zu viele Wlans sind und somit keine Bandbreite oder das Datenvolumen gedrosselt ich komme mit 5GB gerade so hin.

Mark Zimmermann

http://www.goldmedia.com/blog/...

comments powered by Disqus