Conversational Interfaces

Innovationsführer, Ökosysteme und Potentiale in der Mensch-Maschine-Schnittstelle?

Kommentar  10.03.2017
Von 
Björn Böttcher ist Senior Analyst und Data Practice Lead bei Crisp Research mit dem Fokus auf Analytics, BI, datenbasierte Geschäftsmodelle und Künstliche Intelligenz. Mit mehr als 10 Jahren Berufserfahrung in der IT und einem wissenschaftlichen Hintergrund und Fokus stehen moderne Lösungen mit praktischem Nutzen im Fokus seiner Betrachtung.

Schwachstellen gibt es noch

Doch wie weit sind diese Systeme für den Einsatz im Unternehmen? Für ein freies Gespräch, wie zu Hause, ist die Zeit noch nicht reif. Hier würden dann alle durcheinander reden und die Assistenten den Überblick verlieren. Diese Missgeschicke passieren den Assistenten selbst aktuell noch im Austausch mit ihren Kollegen oder auch wenn der Fernseher oder das Radio etwas mitteilen und sich der Assistent angesprochen fühlt.

Dies hat zwei Hauptgründe. Die sprachlich an einen bestimmten Menschen konditionierten Assistenten, wie Siri, reagieren dann auch entsprechend meist nur auf diesen. Dies wäre am Arbeitsplatz von Vorteil bedingt jedoch ein Gerät pro Mitarbeiter. Auf der anderen Seite hören die Assistenten, die nicht auf eine bestimmte Stimmte ausgerichtet sind, dann auf jeden - also auch auf Sprache aus anderen Quellen, wie eben den Broadcastquellen TV und Radio. Dies wäre in einem Großraumbüro also auch nicht funktional.

Zwar versuchen die modernen Konsumentenprodukte hier eine Ortung im Raum des Sprechenden abzubilden und dann eine effiziente und koordinierte Abarbeitung der Interaktion. Jedoch funktioniert dies nur, wenn ein Individuum diese Anfrage formuliert. Im Büroumfeld ist dies schwer umzusetzen. Auch fehlen Mehrbenutzerprofile, um Geräte dann für unterschiedliche Aufgabenfelder von unterschiedlichen Angestellten nutzen zu lassen. Dies betrifft allerdings auch noch einige mobile Betriebssysteme, wie beispielsweise iOS.

Eine weitere Hürde ist die Geräuschkulisse im Einsatzgebiet. Immer wenn laute Maschinen oder andere Geräuschquellen in der Nähe sind, dann wird es schwer diese Assistenten zum Leben zu erwecken. Einen Ansatz, der dies beheben soll, verfolgt aktuell Apple. Da Siri bereits auf eine einzelne Stimme und Sprache optimiert ist, muss nur noch die Interaktion in lauten Umgebungen behoben werden. Ein erster Schritt sind hier die AirPods, also die kabellosen Bluetooth-Kopfhörer, welche zur Interaktion mit dem Assistenten geeignet sind.

Open Source und IoT

Es muss jedoch auch nicht immer ein kommerzielles Produkt sein. Durch den technologischen Fortschritt und vielen Open Source Projekten haben wir die Möglichkeit uns eine Alexa, Cortana, Siri oder Ok Google selbst zu bauen. Ganz nach unseren Vorstellungen und für spezielle Einsatzbereiche. Man kombiniere Machine Learning as a Service Angebote mit Physical Computing Plattformen à la Raspberry Pi, Arduino oder Intel Edison und füge noch eine Serverless Plattform hinzu - et voilà fertig ist das eigene Conversational Interface. Diese haben dann die Möglichkeit für einen bestimmten Use Case angepasst zu werden, wie beispielsweise:

  • Fertigung

  • Behörden

  • Kliniken

  • Call Center

  • ÖPNV Fahrzeugen

  • Werkstätten

  • Supermärkten

  • Großküchen

  • etc.

Der Vorteil liegt klar in der Kontrolle der Hardware und der Software, sowie der Spezialisierung der Assistenten auf ein bestimmtes Einsatzgebiet hin.

Empfehlung: Spieltrieb entdecken

Die Integration von Conversational Interfaces in IoT-Produkte und den Arbeitsalltag ist eine lohnende Investition, welche technische keine größere Herausforderung per se mehr darstellt. Daher sollten alle Unternehmen, die noch viel lesen und schreiben zumindest mal den Versuch wagen, hier auf Conversational Interfaces zu setzen. Wenn es dann doch noch nicht in den Arbeitsalltag passt, dann hat man wenigstens ein Skill-Gap mehr geschlossen. Eine detailliertere Übersicht zu den einzelnen Anbietern von Chatbot-Plattformen hat Ihnen mein Kollege Moritz Strube erstellt. (mb)