Tableau-CEO Adam Selipsky

"Daten-Analyse wird zum festen Bestandteil der täglichen Arbeit"

19.09.2018 von Manfred Bremmer
Im Zuge der Digitalisierung wächst auch die Bedeutung datengestützter Entscheidungen. CW-Redakteur Manfred Bremmer sprach mit Tableau-CEO Adam Selipsky darüber, wie Unternehmen den Datenschatz heben können.

Herr Selipsky, interessante Zeiten für einen Anbieter von Data-Analytics-Lösungen…

Selipsky: Ja, in der Tat, Organisationen jeder Art und Größe sammeln inzwischen riesige Mengen von Daten und für einige wird es zu einem Riesenproblem, aus dieser Menge die relevanten Daten herauszufinden und Erkenntnisse zu gewinnen. Für andere Unternehmen wiederum bietet sich damit eine Gelegenheit, ein neues Business aufzuziehen, etwa in Bereichen wie Genomic, Fintech oder auch Adtech.

Adam Selipsky ist seit September 2016 CEO und President von Tableau Software.
Foto: Tableau

Angesichts all dieser Daten brauchen mehr und mehr Unternehmen eine mächtige Analyseplattform, um mit den Daten umzugehen - wobei natürlich nicht alle Daten analysiert werden müssen. Und die Kunden drängen uns, unsere Analytics-Plattform zu verfeinern und auszuweiten, um aus den Möglichkeiten und Fähigkeiten dieser Daten Kapital zu schlagen.

Kann man sagen, die Analyse von Daten wird demokratisiert?

Selipsky: Ja, das Thema Daten-Analyse wird komplett demokratisiert. Unsere Kundenbasis umfasst jede Industrie, jedes Land und jeden möglichen Anwendungsfall. Professionelle Analysten, Data Scientists, Topmanager, aber mehr und mehr auch einfache Mitarbeiter. Wir sind nun in einer Phase, wo Unternehmen Tableau Tausenden von Mitarbeitern zur Verfügung stellen und es kommt auch häufiger vor, dass Unternehmen es für Zehntausende von Anwendern ausrollen. So gibt einige Banken, die Tableau bei mehr als zehntausend Nutzern ausgerollt haben, eine Fortune-100-Internet-Company hat die Anwendung unternehmensweit lizenziert, so etwas passiert immer öfter.

Hier in Deutschland beispielsweise hat Sony Music Entertainment einige tausend Tableau-Nutzer. Das Unternehmen ist ein perfektes Beispiel für Demokratisierung, denn sie nutzen Tableau zur Analyse der Streaming-Daten, um zu verstehen, was sie ihren Kunden anbieten müssen. Das haben früher 30 Analysten gemacht und die Analyseergebnisse via Excel weitergegeben - diese Methode hat lange gedauert und war somit ein ziemlicher Flaschenhals. Heute nutzen etliche tausend Mitarbeiter die Analyse als Self Service, stellen also Fragen über die Nutzerdaten, unterhalten sich quasi mit den Daten. Genau das ist ein Beispiel für die Demokratisierung, denn nun ist jeder in der Lage, mit Daten zu arbeiten und sie zu analysieren.

Bedeutet das im Umkehrschluss, dass künftig keine Analysten mehr gebraucht werden?

Selipsky: Kommt drauf an, wer Sie sind und was Sie tun. Es gibt einige Anwendungsszenarien, bei denen Unternehmen eine relativ einfache Datenbasis haben, eine einzige Datenquelle - da ist es sehr einfach für eine Gruppe von Nutzern, diese Daten zu untersuchen. Die Nutzer finden relativ schnell raus, wie man damit umgeht, und man braucht nicht unbedingt einen professionellen Data Scientist.

Dann gibt es aber sicher Fälle, etwa bei großen Unternehmen mit 100 oder mehr unterschiedlichen Datenquellen, da gibt es Probleme mit den zugrunde liegenden Daten, sie passen manchmal nicht zusammen. In solchen Fällen gibt es häufig einen professionellen Datenanalysten, der die Daten aufbereitet, damit man zertifizierte Datenquellen hat, deren Ergebnissen vertrauenswürdig sind. Und dann gibt es dort häufig Tausende von Nutzern, die auf diese Quellen zugreifen müssen. Ob der Einsatz eines Analysten sinnvoll ist, hängt größtenteils von der Komplexität der Datenquellen und deren Struktur ab.

"Wir haben beim Thema Data Analytics gerade erst begonnen"

Man hört viel von der wachsenden Bedeutung datengestützter Entscheidungen. Was ist mit dem Faktor Mensch?

Selipsky: Es gibt ganz sicher bestimmte Entscheidungen, die auch eine Maschine treffen kann, manches kann auch getriggert werden. Alarme etwa, wenn etwas ein bestimmtes Level erreicht hat. Nehmen wir das Beispiel Inventarmenge: Geht ein Alarm los, weil der Vorrat eines bestimmten Produkts auf ein bestimmtes Niveau gesunken ist, dann wäre das der Punkt, wo eine Maschine das ERP-System informiert, dass der Vorrat aufgestockt werden muss.

Es gibt sicher Szenarien, wo die Nutzung von Analytics Firmen dabei hilft, effizienter zu werden und Prozesse zu streamlinen. Allerdings gehen wir zumindest mittelfristig davon aus, dass Künstliche Intelligenz und Machine Learning den Analysten eher unterstützen und nicht ersetzen werden. Viele Entscheidungen müssen von Menschen getroffen werden oder Menschen müssen eingreifen - aber diese Entscheidungen müssen grundsätzlich auf Daten basieren und mit Hilfe von Analyse gemacht werden. Es wird im Laufe der Zeit absolut normal sein, dass Unternehmen eine Analyseplattform besitzen, die die Arbeit von Mitarbeitern erweitert und unterstützt. Wir bewegen uns auf eine Welt zu, in der wir 10 oder 100 Millionen Knowledge Worker haben, die Analyse als Teil ihrer täglichen Arbeit sehen.

Eine ähnliche Entwicklung haben wir bei einer anderen Productivity-Software gesehen, die inzwischen auf Hunderten von Millionen Desktops läuft, Microsoft Excel zum Beispiel. Was Tableau aufbaut, ist einfach eine moderne Art, Analyse zu betreiben, skalierbar und intuitiv genug, um als Self-Service verwendet zu werden - und wenn wir unseren Job gut machen, werden wir von deutlich mehr als Zehntausenden von Mitarbeitern in Großunternehmen genutzt werden.

Sie sehen Tableau als sowas wie das nächste Excel?

Selipsky: An dieser Analogie ist tatsächlich etwas dran. Sie müssen wissen, Excel kam auf den Markt, als ich im College war und es war damals ein ziemlich abgedrehtes fortschrittliches Tool, es wurde gelehrt als ein Computer-Sciences-Thema. Ich glaube, selbst im CS50 in Harvard wurde Excel gelehrt. Es klingt verrückt, ich weiß und speziell, wenn man das einem Computer Scientist erzählt, wird man angeschaut, als ob man zwei Köpfe hätte. Aber ich glaube, es ist ein sehr gutes Beispiel, weil es zeigt: Wenn etwas neu ist und die Menschen nicht das ganze Potential erkennen, neigen sie nicht dazu, das Ganze zu extrapolieren und zu verstehen, was es den Menschen wirklich bringen wird.

Blickt man aber sorgfältig auf die zugrundeliegenden Trends und Treiber, kann man wirklich die Zukunft sehen. Man muss nur auf die enormen Mengen an Daten der Unternehmen rund um die Welt schauen und auf die Rechenleistung, die uns inzwischen zur Verfügung steht. Oder auf die Anzahl der Datenquellen, mit denen Unternehmen zu tun haben, und die Tatsache, dass wir bereits heute eine starke Adoptionsrate der Analyseplattformen sehen.

Wenn man sich all diese Faktoren ansieht, kann man tatsächlich vorhersagen, dass Analytics eine fundamentale Tätigkeit für zehn oder eher Hunderte von Millionen Knowledge Worker rund um den Globus werden wird. Nun, ob sie dazu Tableau verwenden oder ein anderes Tool hängt von uns ab. Wir haben viele gute Ideen, wir verstehen unsere Kunden sehr gut, daher glaube ich, dass wir eine gute Chance haben, einer der Gewinner zu werden. Und ich glaube, wenn nicht wir, dann jemand anderes - die Gelegenheit ist einfach zu groß, es ist etwas, das die Kunden brauchen.

"Kunden interessieren sich mehr für Lösungen, nicht für Technologien"

Wie positionieren Sie Tableau angesichts von Buzz-Wörtern wie KI, ML und NLP? Im Vergleich dazu klingt Data Analytics eher normal?

Selipsky: KI, ML, NLP - am Ende des Tages sind das alles Technologien, aber keine Lösungen. Ich denke jedoch, die Kunden interessieren sich mehr für die Lösungen. Sie wollen wissen, was man damit machen kann, nicht woraus sie bestehen - egal, wieviel Hype darum gemacht wird und trotz all diesen Buzzwords. Der Hype führt dazu, dass sich Menschen dafür interessieren, aber er hilft ihnen letztendlich nicht weiter. Wir versuchen, uns auf das zu fokussieren, was von diesen Technologien tatsächlich realisierbar ist.

Nichtsdestotrotz sind es aber wichtige Technologien, die in vielen wirtschaftlichen Bereichen genutzt werden können, so auch in Analytics. Dort werden ML und AI sicherlich eingesetzt, um noch raffiniertere Szenarien zu ermöglichen, noch ausgeklügeltere Analysen, damit professionelle Analysten noch komplexere Aufgaben bewältigen.

Ich denke aber, ein großer Teil der Leistung und des Werts dieser Technologien liegt darin, wirklich einfache, intuitive Lösungen zu entwickeln. Und obwohl wir schon ziemliche Fortschritte bei der einfachen Nutzung von Daten gemacht haben, glaube ich, dass die Herausforderungen, vor den wir stehen, mindestens so groß sind wie die Probleme, die wir schon heute zu lösen helfen. Man muss nur überlegen: Wer ist der 25.000 Nutzer unserer Lösung in einem Großunternehmen? Das ist kein Analyst, kein Data Scientist, es könnte ein Grafikdesigner sein, ein Anwalt, oder in einer kleineren Firma ein Entrepreneur mit einem Pizzashop, ein Lehrer oder Bibliothekar.

Gerade NLP ist dabei ein spannendes Beispiel, wir arbeiten seit einigen Jahren daran und kauften im vergangenen Jahr eine Company aus diesem Bereich zu, nämlich Cleargraph aus dem Silicon Valley. Ich gehe davon aus, dass wir in den nächsten Jahren NLP-Funktionalität in Wellen bereitstellen werden.

Stellen Sie sich vor, Sie können einfach eine Frage tippen oder stellen, etwa 'Wo sind die teuersten Wohngegenden in München?' und wechseln dann zurück zur Visualisierung, um die Frage beantwortet zu bekommen. Es gibt eine Menge ausgeklügelter Technologie, um diese Suche vorzunehmen, vor allem was die Übersetzung angeht: Was bedeutet teuer, was Nachbarschaft, was München?

Wir entwickeln dazu eine ausgeklügelte Suchsprache für das Backend, um mit solchen Suchen in natürlicher Sprache umzugehen und sie in maschinenlesbare und relevante Suchen zu übersetzen. Was NLP über die Zeit bewirken kann, ist Tableau näher zu den menschlichen Wesen zu bringen, die wir nun mal sind, anstatt die Menschen näher an die Suchsprache von Tableau zu bringen.

Wie steht es um die Nutzung von KI-Funktionalitäten in Tableau?

Selipsky: Was KI angeht, gibt es eine Menge verschiedener Aspekte. Wir haben heute bereits einige KI-Funktionalitäten in unserem Produkt. In unserer Tableau-Server-Umgebung können wir etwa Organisationen Empfehlungen dazu geben, welche Datenquellen sie haben, die sie in ihre Analyse mit einschließen sollten. Konkret also etwa, welche Tabellen und Spalten sich miteinander verbinden lassen. Grundlage dafür ist, was wir sehen und was wir aus dem lernen, was andere Menschen in der Organisation mit den Daten gemacht haben.

Ich denke aber, wir stehen mit dem, was wir gemacht haben, erst am Anfang. Wir profitieren aber davon, was wir bereits an Vorarbeit geleistet haben und von einer kürzlich getätigten Übernahme der KI-Company Empirical Systems, ein MIT-Spinoff aus Cambridge Massachusetts. Bei deren Technologie geht es darum, Nutzern dabei zu helfen, automatisch Erkenntnisse von Daten zu generieren. Dies reduziert die Zeit, die sonst erfahrene Statistiker aufwenden müssen, in Hinblick auf Datenmodellisierung und Predictive Analysis und um die Data Engine zu automatisieren, die diese erstellen.

Das - verbunden mit all dem, was wir bereits an Lösungen entwickelt haben - bringt uns weiter in Hinblick auf Predictive Analytics und automatisierte Erkenntnisse. Im Laufe der Zeit werden wir in der Lage sein, über die gesammelten Daten von Kunden zu blicken und ihnen interessante Sachen zu erzählen, Antworten auf Fragen zu geben, die sie sonst nie erhalten hätten. Dies wird allerdings erst im Laufe der Zeit möglich sein, nicht morgen, es handelt sich um eine mehrjährige Reise.

"Wir haben uns verpflichtet, jede wichtige Datenquelle zu unterstützen"

Wie steht es um den Aufbau von Ökosystemen? Diese sind ja heutzutage zunehmend wichtig für Technologieanbieter?

Selipsky: Da stimme ich Ihnen völlig zu - wir haben vor kurzem damit begonnen, unsere Investitionen in ein Partner-Ökosystem zu steigern. Ich denke, da gibt es drei Standbeine: Eines sind unsere Technologiepartner, wobei man da differenzieren muss. Daten kommen von verschiedenen Datenquellen und müssen irgendwohin gebracht werden, damit man sie analysieren kann. Wir unterstützen über 75 verschiedene Datenquellen, deutlich mehr als jeder Wettbewerber. Wir haben uns verpflichtet, jede Datenquelle zu unterstützen, die wichtig ist.

Und wenn wir schon dabei sind: Sie können Daten in Tableau importieren und untersuchen oder Tableau live nutzen. Sie können mit Datenbanken arbeiten, etwa mit SAP HANA, und sie auf Ihren On-Premises-Systemen laufen lassen. Sie können die Suche ablaufen lassen und nur die Ergebnisse in Tableau verwenden oder die Daten live einfließen lassen. Das alles geschieht über Technologiepartner. Die Cloud-Anbieter wie AWS, Google und Microsoft sind auch Technologiepartner, denn mehr und mehr Kunden wollen die Analyse dort betreiben.

Das zweite Standbein sind Systemintegratoren und Consultants. Viele unserer Kunden integrieren unsere Lösung selbst, aber sehr viele arbeiten mit Systemintegratoren zusammen, die Tableau bereitstellen, integrieren und manchmal auch die zugrundeliegende Infrastruktur und die Applikationen managen. Wir haben eine umfangreiche Liste von Beziehungen, dazu gehören die größten Systemintegratoren wie Accenture oder Deloitte, aber auch regionale wie Information Labs in London und lokale je nach Land.

Das dritte Standbein sind unsere Channel Partner, also Distributoren und Reseller. In manchen Regionen ist das eher üblich, ebenso in bestimmten Kundensegmenten. Im deutschen Mittelstand etwa ist es die übliche Vorgehensweise, dass Lösungen durch Channel-Partner verkauft werden. In vielen Fällen wollen wir direkt an unsere Kunden verkaufen, aber in bestimmten Kundensegmenten oder Ländern ist das einfacher über Partner.

Und wie steht es um die Integration mit IoT-Plattformen?

Selipsky: IoT ist einer der Treiber für die Menge an Daten, die heute generiert werden. Ein einfaches vernetztes Mikroskop in einem Labor kann bis zu 20 TByte Daten pro Tag generieren. Die IoT-Daten müssen in einen Data Lake fließen und unsere Aufgabe ist es, dort nahtlos auf die Daten zuzugreifen. Im Bereich Data Lakes haben wir gute technische und geschäftliche Beziehungen mit Google Big Query, Amazon Data Lake und Microsoft Azure Data Lake. Wir müssen es unseren Kunden sehr einfach machen, Daten aus den Data Lakes zu extrahieren und dann zu analysieren, aber wir sammeln die Daten natürlich nicht am Edge ein, das ist Aufgabe der IoT-Plattformen.

Vor zwei Jahren haben wir in diesem Bereich ein Startup aus München übernommen, HyPer, ein Spinoff der TU München. HyPer hat eine interessante In-Memory- und Data-Engine-Technologie entwickelt, die wir Anfang dieses Jahres als neue Data Engine in Tableau bereitgestellt haben, das heißt, wir haben die bestehende gegen sie ausgewechselt. Kunden können mit der HyPer-Data-Engine-Technologie eine drei bis fünffach höhere Performance realisieren. Das ist nur ein Beispiel, wie wir Innovationen einführen, um bessere Lösungen für unsere Kunden bereitzustellen.

Haben Sie noch weitere?

Selipsky: Im April haben wir auch ein neues Produkt vorgestellt für die Vorbereitung der Daten, es heißt Tableau Prep. Dazu muss ich bemerken, dass wir viele Partner in diesem Bereich haben und auch weiterhin mit ihnen zusammenarbeiten werden. Es gab aber Kunden, die sagten, wir wollen Data Preparation als Teil der Tableau-Plattform, um eine reibungslose Integration mit den bestehenden Tableau-Fähigkeiten zu gewährleisten. Wir denken, das neue Tool macht für Data Preparation das, was Tableau für BI machte. Es ist ein sehr intuitives interaktives Tool mit nützlichen Selbstbedienungsfunktionen. Es ist zwar erst einige Monate alt, aber die Anwender, die bereits damit gearbeitet haben, waren sehr begeistert davon. Unser Kunde Lufthansa nutzt Tableau Prep und hat damit die Zeit für die Datenaufbereitung um 30 Prozent reduziert - ein sehr bemerkenswerter Erfolg.

"Abos sind wie Dates mit der Software - man geht keine Verpflichtung ein"

Gleichzeitig haben wir eine Serie neuer Angebote vorgestellt, als Bundles, als eine neue Art, Tableau zu kaufen. Tableau Creator ist das Flaggschiff-Angebot für den erfahrenen Analysten, man kann damit auf eine Reihe der traditionellen Desktop-Fähigkeiten im Web zugreifen mit Client-Software - und es enthält auch Tableau Prep.

Viele große Unternehmen haben uns aber gesagt: Wir haben alle Arten von Nutzern, der Ansatz 'One Size fits all' passt nicht zu uns. Bei Tableau Viewer fehlen daher all die anspruchsvollen Funktionen, die der gelegentliche Nutzer nicht braucht und die ihn sonst auch nur verwirren. Er kann aber immer noch Visualisierungen erhalten, die andere Nutzer gemacht haben, in die Daten eintauchen und reinklicken, um mit den Daten interagieren und andere Felder miteinbringen. Also eine Untersuchung nach Ländern auf Bundesstaaten herunterbrechen und umgekehrt.

Das Ganze wirkt sich natürlich auch auf den Preis aus. Und es ist ein Abo - wir befinden uns in der Mitte eines spannenden Weges weg von einer unbefristeten Lizenz hin zu einer monatlichen Lizenzgebühr. Konkret sind es jetzt ein Jahr oder vier Quartale her, als wir damit begannen. Und wenn Sie auf unsere Lizenzerlöse schauen: Vor einem Jahr waren noch 26 Prozent unserer Lizenzerlöse wiederkehrende Umsätze und in nur einem Jahr sprangen diese auf 59 Prozent. Diese Entwicklung spiegelt zwei Dinge wider: Erstens: Unser Team macht einen guten Job und zweitens, was noch wichtiger ist: Die Kunden wollen das so, weil es die Risiken für ein Unternehmen reduziert. Kaum jemand will heute noch eine hohe Vorauszahlung für eine Software leisten und wenn er sie nicht mehr braucht, bleibt er auf einem schmerzhaft hohen Betrag sitzen - es ist wie Heiraten, das ist eine große Verpflichtung.

Im Gegensatz sind Abos, wie wenn man die Software nur datet: Man verpflichtet sich nur für ein Jahr, oder wenn man will drei Jahre und zahlt lediglich für die Zeit, die man die Software wirklich nutzt. Und am Ende dieser Zeit kann man auch wieder weggehen, wenn einem etwas besseres über den Weg läuft. Abo-Modelle nehmen dem Kunden eine Menge Hürden bei der Einführung und sie senken für ihn auch deutlich das Ausstiegsrisiko.

Wie lange wird es dann noch Tableau on-premises geben?

Selipsky: Ein wichtiges Ziel von Tableau ist es, den Kunden Wahlmöglichkeiten zu bieten und diese nicht zu verhindern, also ihnen so viel Flexibilität wie möglich zu bieten. Man sieht das in einer Vielzahl von Bereichen. Nehmen wir die Daten-Konnektoren: Wir wollen nicht für unsere Kunden entscheiden, welche Art von Konnektoren sie nehmen müssen.

Ein anderes Beispiel ist das Deployment von Tableau: Wir bieten drei Möglichkeiten: Die erste ist on-premises und viele Kunden setzen Tableau on-premises ein - aus einer Vielzahl von unterschiedlichen Gründen. Möglichkeit Nummer zwei ist die Public Cloud, wir sind hier agnostisch und unterhalten enge Beziehungen mit AWS, Microsoft Azure und Google Cloud und die Kunden haben volle Flexibilität, Tableau auf einer der drei Plattformen zu betreiben. Drittens bieten wir mit Tableau Online eine Cloud-basierte Software an, wir haben bereits Tausende von Kunden, die Tableau Online nutzen. Wir haben also verschiedene Betriebsmodelle und einige Kunden wollen Tableau im Hybrid-Modus betreiben, etwa weil es verschiedene Use Cases, verschiedene Niederlassungen und Länder gibt. Und wir wollen ihnen ein Maximum an Flexibilität bieten und Kunden die Auswahl überlassen, indem wir weiterhin all diese Umgebungen unterstützen.

Wie kann man sich die Tableau-Nutzung in einem Hybrid-Modus vorstellen? Das klingt etwas verwirrend.

Selipsky: Es klingt verwirrend, aber manchmal gibt es unterschiedliche Datenquellen, einige Ländergesellschaften können auch sagen: Okay, wir haben das Marketing in der Cloud und deshalb geben wir auch die Marketinganalyse in die Cloud, aber die ERP-Systeme laufen on-premises, deshalb wollen wir die Analyse von Fertigung, Supply Chain und ERP-Daten auch on-premises machen. Das wäre ein Beispiel für solch ein Modell, wo man die Analyse an zwei unterschiedlichen Orten durchführt.

Haben Sie Empfehlungen, wie man Tableau einführen sollte? Etwa in Hinblick darauf, wo man starten sollte und welche typischen Fehler es zu vermeiden gilt?

Selipsky: Ich denke, zunächst einmal gibt es nicht die eine Anwendung, mit der man beginnen sollte. Einige Anwender interessiert die Produktion, andere die Supply Chain, andere machen Marketing Analytics oder Sales Team Performance - es gibt keine richtige Antwort darauf, mit welcher Anwendung man starten sollte. Aber üblicherweise sehe ich, dass Kunden Erfolg mit der Einführung haben, wenn sie mit einer relativ kleinen Anzahl von Use Cases beginnen und sich mit diesen intensiv befassen und das Beste dabei herausholen. Dann werden diese Anwendungsbeispiele dokumentiert und in der Organisation vorgestellt. Es hat eine enorme Wirkung, wenn man aufzeigen kann, was mit der Nutzung von Tableau möglich ist. Es ist also viel wichtiger, sich auf eine kleine Anzahl der richtigen Anwendungen zu fokussieren als unterschiedliche Anwendungen auszuwählen.