Künstliche Intelligenz im Fokus

Teradata baut an seiner Analytics-Drehscheibe

23.11.2017
Von 
Karin Quack arbeitet als freie Autorin und Editorial Consultant vor allem zu IT-strategischen und Innovations-Themen. Zuvor war sie viele Jahre lang in leitender redaktioneller Position bei der COMPUTERWOCHE tätig.
Vom Spezialisten für skalierbare Datenbanksysteme auf proprietärer Hardware zum Architekten und Baustofflieferanten für Analytics, Machine Learning und Neuronale Netze – Teradata hat sich seit der Trennung von NCR vor zehn Jahren gründlich verändert. Im Mittelpunkt der diesjährigen „Partners“-Konferenz stand das Konzept „Everywhere“.

"Die Fortschritte im Analytics-Bereich bewegen sich nicht linear, sondern exponentiell", konstatierte Victor Lund, CEO der Teradata Corp., in seiner Willkommens-Ansprache vor mehr als 4000 Teilnehmern der Partners-Konferenz. Die Proliferation von Plattformen, Entwicklungssprachen, Tools und Deployment-Plattformen verunsichere die Anwender; jede Entscheidung bedeutet ein Risiko, auf das falsche Pferd zu setzen. Als Motto hatte Teradata der diesjährigen Anwenderkonferenz, die im kalifornischen Anaheim über die Bühne ging, denn auch das etwas kryptische "Edge of Next" verpasst, deutsch etwa: "Schwelle zum Unbekannten."

Die Teradata Partners Konferenz 2017 im kalifornischen Anaheim stand unter dem Motto: "Edge of Next".
Die Teradata Partners Konferenz 2017 im kalifornischen Anaheim stand unter dem Motto: "Edge of Next".
Foto: Karin Quack

Tatsächlich dürfte es den IT-Entscheidern derzeit schwerfallen, sich langfristig auf eine Analytics-Technologie festzulegen. Zu vielfältig ist das Angebot von Tools, Entwicklungssprachen und Deployment-Methoden. Teradata ermutigt seine Kunden deshalb, einfach irgendwo anzufangen und dann auf die Flexibilität und Skalierbarkeit der eigenen Umgebung zu vertrauen. In Anaheim stellte das Unternehmen dazu ein mehrschichtiges Integrationskonzept vor.

Datenbank verschmilzt mit Analytics-Tools

Die Bezeichnung für dieses Konzept, "Teradata Everywhere", geistert schon seit einigen Monaten durch die Big-Data-Community. Nun gab es endlich mehr Details dazu. Ziel ist es, die Kunden beim Aufbau einer offenen, flexiblen und skalierbaren Analytics-Umgebung zu unterstützen, erläuterte Oliver Ratzesberger, Executive Vice President und Chief Product Officer bei Teradata. In dieser Umgebung seien die Anwender quasi frei in der Wahl ihrer Sprache, Engine und Deployment-Plattform. Übrigens bietet Teradata selbst seine Produkte mittlerweile auch über Amazon Web Services (AWS) und Microsofts Cloud-Plattform Azure an.

Das technische Kernstück des Everywhere-Konzepts ist die "Teradata Analytics Platform". In diesem nach eigenen Angaben hochskalierbaren Produkt wurden das hauseigene Datenbanksystem und die zugekaufte Analytics-Umgebung "Aster" miteinander verschmolzen, erklärte der Anbieter. Data Scientists könnten nun - im Rahmen eines durchgängigen Workflows - ihre Analysen "nahtlos" und mit der jeweils bevorzugten Sprache oder Engine auf unterschiedliche Datentypen anwenden. Die Daten verblieben dabei an ihrem Speicherort; die Analyse komme zu ihnen statt umgekehrt.

Aufbau eines Analytics-Ökosystems

Für Victor Lund, den CEO von Teradata, entwickeln sich die Fortschritte im Analytics-Bereich nicht linear sondern exponentiell.
Für Victor Lund, den CEO von Teradata, entwickeln sich die Fortschritte im Analytics-Bereich nicht linear sondern exponentiell.
Foto: Teradata

Neue Komponenten zu der Umgebung hinzufügen können die Anwender, ohne dass sie deswegen zusätzliche Lizenzen erwerben müssen, so die Teradata-Verantwortlichen. Alle, auch künftige, Teradata-Produkte seien durch die so genannte "T-Core"-Lizenz abgedeckt, verspricht der Anbieter. Es werde allerdings auch Adaptoren für Fremdprodukte geben, die getrennt zu lizenzieren seien. So könnten sich Anwender ein eigenes Analytics-"Ökosystem" aufbauen.

Die integrierte Analytics-Plattform wird Teradata zufolge noch 2017 allgemein verfügbar sein - mit Unterstützung für Python, R, SQL sowie die Abfragesprache des Teradata-Partners SAS. Für die erste Hälfte des Jahres 2018 stellt der Anbieter eine Version mit den Analytics-Engines Spark, TensorFlow, Gluon und Theano in Aussicht.

Mit der neuen Umgebung sollen die Data Scientists in den Unternehmen unterschiedlichste Analysefunktionen erhalten: Attribution, Pfadanalyse, Zeitreihen sowie statistische, textorientierte und Machine-Learning-Algorithmen. Vor allem letztere waren auf der Konferenz ein großes Thema. Offenbar will sich Teradata mit seinen Produkten auch als Basis für Artificial-Intelligence-Anwendungen (AI) positionieren.

Im Studien-Shop der COMPUTERWOCHE finden Sie Umfrageergebnisse, die detailliert den Umgang von Anwenderunternehmen mit dem Thema Analytics beleuchten:

Studie Real Analytics

Studie Analytics Readiness

Mittlerweile kann das Unternehmen auch Beratungskapazität auf diesem Feld vorweisen: Der vor zwei Jahren hinzugekaufte Consulting-Bereich Think Big Analytics spezialisiert sich zunehmend auf den Themenkomplex Artificial Intelligence. Von den mittlerweile rund 1000 unter dem Think-Big-Dach zusammengefassten Beratern haben 30 bis 40 Prozent einen "starken Fokus auf AI und Data Science", sagt Rick Farnell, Senior Vice President Think Big Analytics.

Mit Acceleratoren zur AI-Anwendung

Den Anwenderunternehmen mangelt es gerade im Hinblick auf AI an qualifizierten Datenspezialisten. Das bestätigte kürzlich auch eine von Teradata beauftragte Umfrage unter 260 IT- und Business-Entscheidern ("State of Artificial Intelligence for Enterprises" von Vanson Bourne). Um weniger abhängig von internen Talenten zu werden, benötigten viele Unternehmen deshalb externe Beratung - oder aber zumindest technische Hilfestellung.

Mehr zum Thema Künstliche Intelligenz lesen Sie im COMPUTERWOCHE Online-Special:

Künstliche Intelligenz (Artificial Intelligence)

Etwas in dieser Art entwickelt Think Big Analytics in Form von "Acceleratoren". Das sind speziell für bestimmte Anwendungen geschnürte Pakete aus Best Practices, Design-Mustern und ausführbarem Code. Mit ihrer Hilfe sollen die Anwender ihre AI-Applikationen schneller einführen können, lautet das Versprechen.

Bislang gibt es allerdings erst zwei dieser Beschleuniger: "AnalyticOps" ist schon verfügbar; er hilft, Deep-Learning-Modelle zu erstellen, zu bewerten, einzuführen und zu steuern. Für das erste Quartal 2018 angekündigt ist "Financial Crimes"; das Modul soll beispielsweise Banken dabei unterstützen, mit Hilfe neuronaler Netze beinahe in Echtzeit und auf allen Kanälen Muster von Betrugsversuchen in Finanztransaktionen zu erkennen.