Tableau-CEO Adam Selipsky

"Daten-Analyse wird zum festen Bestandteil der täglichen Arbeit"

19.09.2018
Von 


Manfred Bremmer beschäftigt sich mit (fast) allem, was in die Bereiche Mobile Computing und Communications hineinfällt. Bevorzugt nimmt er dabei mobile Lösungen, Betriebssysteme, Apps und Endgeräte unter die Lupe und überprüft sie auf ihre Business-Tauglichkeit. Bremmer interessiert sich für Gadgets aller Art und testet diese auch.

"Kunden interessieren sich mehr für Lösungen, nicht für Technologien"

Wie positionieren Sie Tableau angesichts von Buzz-Wörtern wie KI, ML und NLP? Im Vergleich dazu klingt Data Analytics eher normal?

Selipsky: KI, ML, NLP - am Ende des Tages sind das alles Technologien, aber keine Lösungen. Ich denke jedoch, die Kunden interessieren sich mehr für die Lösungen. Sie wollen wissen, was man damit machen kann, nicht woraus sie bestehen - egal, wieviel Hype darum gemacht wird und trotz all diesen Buzzwords. Der Hype führt dazu, dass sich Menschen dafür interessieren, aber er hilft ihnen letztendlich nicht weiter. Wir versuchen, uns auf das zu fokussieren, was von diesen Technologien tatsächlich realisierbar ist.

Nichtsdestotrotz sind es aber wichtige Technologien, die in vielen wirtschaftlichen Bereichen genutzt werden können, so auch in Analytics. Dort werden ML und AI sicherlich eingesetzt, um noch raffiniertere Szenarien zu ermöglichen, noch ausgeklügeltere Analysen, damit professionelle Analysten noch komplexere Aufgaben bewältigen.

Ich denke aber, ein großer Teil der Leistung und des Werts dieser Technologien liegt darin, wirklich einfache, intuitive Lösungen zu entwickeln. Und obwohl wir schon ziemliche Fortschritte bei der einfachen Nutzung von Daten gemacht haben, glaube ich, dass die Herausforderungen, vor den wir stehen, mindestens so groß sind wie die Probleme, die wir schon heute zu lösen helfen. Man muss nur überlegen: Wer ist der 25.000 Nutzer unserer Lösung in einem Großunternehmen? Das ist kein Analyst, kein Data Scientist, es könnte ein Grafikdesigner sein, ein Anwalt, oder in einer kleineren Firma ein Entrepreneur mit einem Pizzashop, ein Lehrer oder Bibliothekar.

Gerade NLP ist dabei ein spannendes Beispiel, wir arbeiten seit einigen Jahren daran und kauften im vergangenen Jahr eine Company aus diesem Bereich zu, nämlich Cleargraph aus dem Silicon Valley. Ich gehe davon aus, dass wir in den nächsten Jahren NLP-Funktionalität in Wellen bereitstellen werden.

Stellen Sie sich vor, Sie können einfach eine Frage tippen oder stellen, etwa 'Wo sind die teuersten Wohngegenden in München?' und wechseln dann zurück zur Visualisierung, um die Frage beantwortet zu bekommen. Es gibt eine Menge ausgeklügelter Technologie, um diese Suche vorzunehmen, vor allem was die Übersetzung angeht: Was bedeutet teuer, was Nachbarschaft, was München?

Wir entwickeln dazu eine ausgeklügelte Suchsprache für das Backend, um mit solchen Suchen in natürlicher Sprache umzugehen und sie in maschinenlesbare und relevante Suchen zu übersetzen. Was NLP über die Zeit bewirken kann, ist Tableau näher zu den menschlichen Wesen zu bringen, die wir nun mal sind, anstatt die Menschen näher an die Suchsprache von Tableau zu bringen.

Wie steht es um die Nutzung von KI-Funktionalitäten in Tableau?

Selipsky: Was KI angeht, gibt es eine Menge verschiedener Aspekte. Wir haben heute bereits einige KI-Funktionalitäten in unserem Produkt. In unserer Tableau-Server-Umgebung können wir etwa Organisationen Empfehlungen dazu geben, welche Datenquellen sie haben, die sie in ihre Analyse mit einschließen sollten. Konkret also etwa, welche Tabellen und Spalten sich miteinander verbinden lassen. Grundlage dafür ist, was wir sehen und was wir aus dem lernen, was andere Menschen in der Organisation mit den Daten gemacht haben.

Ich denke aber, wir stehen mit dem, was wir gemacht haben, erst am Anfang. Wir profitieren aber davon, was wir bereits an Vorarbeit geleistet haben und von einer kürzlich getätigten Übernahme der KI-Company Empirical Systems, ein MIT-Spinoff aus Cambridge Massachusetts. Bei deren Technologie geht es darum, Nutzern dabei zu helfen, automatisch Erkenntnisse von Daten zu generieren. Dies reduziert die Zeit, die sonst erfahrene Statistiker aufwenden müssen, in Hinblick auf Datenmodellisierung und Predictive Analysis und um die Data Engine zu automatisieren, die diese erstellen.

Das - verbunden mit all dem, was wir bereits an Lösungen entwickelt haben - bringt uns weiter in Hinblick auf Predictive Analytics und automatisierte Erkenntnisse. Im Laufe der Zeit werden wir in der Lage sein, über die gesammelten Daten von Kunden zu blicken und ihnen interessante Sachen zu erzählen, Antworten auf Fragen zu geben, die sie sonst nie erhalten hätten. Dies wird allerdings erst im Laufe der Zeit möglich sein, nicht morgen, es handelt sich um eine mehrjährige Reise.

"Wir haben uns verpflichtet, jede wichtige Datenquelle zu unterstützen"

Wie steht es um den Aufbau von Ökosystemen? Diese sind ja heutzutage zunehmend wichtig für Technologieanbieter?

Selipsky: Da stimme ich Ihnen völlig zu - wir haben vor kurzem damit begonnen, unsere Investitionen in ein Partner-Ökosystem zu steigern. Ich denke, da gibt es drei Standbeine: Eines sind unsere Technologiepartner, wobei man da differenzieren muss. Daten kommen von verschiedenen Datenquellen und müssen irgendwohin gebracht werden, damit man sie analysieren kann. Wir unterstützen über 75 verschiedene Datenquellen, deutlich mehr als jeder Wettbewerber. Wir haben uns verpflichtet, jede Datenquelle zu unterstützen, die wichtig ist.

Und wenn wir schon dabei sind: Sie können Daten in Tableau importieren und untersuchen oder Tableau live nutzen. Sie können mit Datenbanken arbeiten, etwa mit SAP HANA, und sie auf Ihren On-Premises-Systemen laufen lassen. Sie können die Suche ablaufen lassen und nur die Ergebnisse in Tableau verwenden oder die Daten live einfließen lassen. Das alles geschieht über Technologiepartner. Die Cloud-Anbieter wie AWS, Google und Microsoft sind auch Technologiepartner, denn mehr und mehr Kunden wollen die Analyse dort betreiben.

Das zweite Standbein sind Systemintegratoren und Consultants. Viele unserer Kunden integrieren unsere Lösung selbst, aber sehr viele arbeiten mit Systemintegratoren zusammen, die Tableau bereitstellen, integrieren und manchmal auch die zugrundeliegende Infrastruktur und die Applikationen managen. Wir haben eine umfangreiche Liste von Beziehungen, dazu gehören die größten Systemintegratoren wie Accenture oder Deloitte, aber auch regionale wie Information Labs in London und lokale je nach Land.

Das dritte Standbein sind unsere Channel Partner, also Distributoren und Reseller. In manchen Regionen ist das eher üblich, ebenso in bestimmten Kundensegmenten. Im deutschen Mittelstand etwa ist es die übliche Vorgehensweise, dass Lösungen durch Channel-Partner verkauft werden. In vielen Fällen wollen wir direkt an unsere Kunden verkaufen, aber in bestimmten Kundensegmenten oder Ländern ist das einfacher über Partner.

Und wie steht es um die Integration mit IoT-Plattformen?

Selipsky: IoT ist einer der Treiber für die Menge an Daten, die heute generiert werden. Ein einfaches vernetztes Mikroskop in einem Labor kann bis zu 20 TByte Daten pro Tag generieren. Die IoT-Daten müssen in einen Data Lake fließen und unsere Aufgabe ist es, dort nahtlos auf die Daten zuzugreifen. Im Bereich Data Lakes haben wir gute technische und geschäftliche Beziehungen mit Google Big Query, Amazon Data Lake und Microsoft Azure Data Lake. Wir müssen es unseren Kunden sehr einfach machen, Daten aus den Data Lakes zu extrahieren und dann zu analysieren, aber wir sammeln die Daten natürlich nicht am Edge ein, das ist Aufgabe der IoT-Plattformen.

Vor zwei Jahren haben wir in diesem Bereich ein Startup aus München übernommen, HyPer, ein Spinoff der TU München. HyPer hat eine interessante In-Memory- und Data-Engine-Technologie entwickelt, die wir Anfang dieses Jahres als neue Data Engine in Tableau bereitgestellt haben, das heißt, wir haben die bestehende gegen sie ausgewechselt. Kunden können mit der HyPer-Data-Engine-Technologie eine drei bis fünffach höhere Performance realisieren. Das ist nur ein Beispiel, wie wir Innovationen einführen, um bessere Lösungen für unsere Kunden bereitzustellen.

Haben Sie noch weitere?

Selipsky: Im April haben wir auch ein neues Produkt vorgestellt für die Vorbereitung der Daten, es heißt Tableau Prep. Dazu muss ich bemerken, dass wir viele Partner in diesem Bereich haben und auch weiterhin mit ihnen zusammenarbeiten werden. Es gab aber Kunden, die sagten, wir wollen Data Preparation als Teil der Tableau-Plattform, um eine reibungslose Integration mit den bestehenden Tableau-Fähigkeiten zu gewährleisten. Wir denken, das neue Tool macht für Data Preparation das, was Tableau für BI machte. Es ist ein sehr intuitives interaktives Tool mit nützlichen Selbstbedienungsfunktionen. Es ist zwar erst einige Monate alt, aber die Anwender, die bereits damit gearbeitet haben, waren sehr begeistert davon. Unser Kunde Lufthansa nutzt Tableau Prep und hat damit die Zeit für die Datenaufbereitung um 30 Prozent reduziert - ein sehr bemerkenswerter Erfolg.