Intelligente Datenverteilung

Teradata optimiert die InMemory-Nutzung

Karin Quack arbeitet als freie Autorin und Editorial Consultant vor allem zu IT-strategische und Innovations-Themen. Zuvor war sie viele Jahre lang in leitender redaktioneller Position bei der COMPUTERWOCHE tätig.
Eine Weiterentwicklung seines "Virtual Storage" hat der Data-Warehouse- und Analytics-Spezialist Teradata soeben vorgestellt: "Intelligent Memory" verteilt die Data-Warehouse-Daten - je nachdem, wie "heiß" sie gerade sind - automatisch auf unterschiedliche Speichertypen, so dass der Kunde die teure InMemory-Kapazität nur dort nutzen kann, wo sie einen Sinn ergibt.

Kenner der Szene erinnern sich wohl noch gut an die Stellungnahmen, die Teradata vor zwei Jahren zum Thema InMemory-Datenbanken abgab: Viel zu aufwändig, sprich: zu teuer, nannte Chief Technology Officer Stephen Brobst die Technik damals.

Diese Einschätzung gelte im Prinzip immer noch, beteuerte das Teradata-Management auf der kürzlich zu Ende gegangenen Anwenderkonferenz "Teradata Universe". Das Konzept von separaten InMemory-Appliances, wie es SAP mit HANA umsetze, sei vom Preis-Leistungs-Verhältnis her unwirtschaftlich.

Teradata-CEO Mike Koehler nahm die aktuelle Produktankündigung bereits vorweg, indem er konstatierte: "Alle Daten in einer einzigen Art von Speicher zu halten, ist Unfug - je nachdem, wofür Sie sich entscheiden, genügt es entweder am einen Ende nicht, oder es ist am anderen zu teuer."

Neu ist die Organisation des Zugriffs

Foto: Alexey Rozhanovsky, Shutterstock.com

Dieses Dilemma will Teradata über die in das Data-Warehouse integrierte Softwareschicht "Intelligent Memory" lösen: Mit Hilfe eines ausgefeilten Algorithmus sollen die Daten jeweils in der vom Preis-Leistungs-Verhältnis am besten geeigneten Speicherform, Festplatte, Solid State oder auch InMemory, gehalten werden. Die Verteilung geschieht dynamisch und automatisch sowie transparent für die Data-Warehouse-Anwender.

Diese „intelligente“, sprich: sich selbst optimierende, Speicherzuweisung macht den Unterschied zwischen dem Teradata-Angebot und ähnlichen Produkten anderen Anbieter aus, erläutert die auf Daten-Management spezialisierte Barc-Analystin Jacqueline Bloemen. Die Zwischenlagerung im Arbeitsspeicher sei nichts Bahnbrechendes, bemerkenswert hingegen die neuartige Organisation des Zugriffs über verschiedenen Speicherschichten hinweg innerhalb der Engine, also das dynamische Ein- und Auschecken der Daten je nach Nutzungsgrad und erforderlicher Zugriffsgeschwindigkeit.

Darüber hinaus ist Intelligent Memory keine Standalone-Plattform wie beispielsweise „Terracotta“ von der Software AG, so die Analystin weiter, sondern eine auf die die relationale Teradata-Datenbank zugeschnittene Softwareschicht. Der Anbieter selbst unterstreicht diese Sichtweise, indem er das Feature ausdrücklich als Bestandteil seiner Unified Data Architecture (UDA) definiert.

Über reine I/O-Vorgänge hinaus

Maßgeblich für die Zuweisung ist die jeweilige "Datentemperatur", wie Teradata es bildlich formuliert: Je heißer die Daten, desto schneller und damit teurer die optimale Speicherart. Sobald die Daten abkühlen, werden sie in langsamere und billigere Medien verfrachtet, wo sie komprimiert bereit stehen.

Laut Chris Twogood, Director Product and Services Marketing bei der Teradata Corp., berücksichtigt der Algorithmus für die Temperaturmessung nicht nur die Häufigkeit von Ein-/Ausgabevorgängen, sondern auch das Datenalter, den - unter Umständen sogar händisch zuweisbaren - "Rang" der Informationen sowie eine Reihe anderer Faktoren. Unter anderem dadurch unterscheide sich die Lösung von den Data-Placement-Funktionen, wie sie von den reinen Speicheranbietern offeriert werden.

Diesen Algorithmus, der beispielsweise auch zeitlich weit gespannte Anwendungsmuster berücksichtigt, hat Teradata in Zusammenarbeit mit großen Kundenunternehmen entwickelt. "Wir haben das Glück, das einige Kunden uns Einblick in ihre Datenbanken gewährt haben", erläutert Andreas Ribbrock, Teamleiter Big Data Analytics bei der Teradata GmbH in Düsseldorf.

Zu 99 Prozent richtig

Trotzdem gibt es offenbar Anwender, die der Maschine nicht so recht trauen, wie Marketing-Direktor Twogood einräumt: "Eine unserer Top-Kundinnen wollte die Priorisierung der Daten lieber selbst vornehmen", berichtet er, "trotzdem hat sie sich darauf eingelassen, Intelligent Memory zu installieren und auf die Probe zu stellen. Nach zwei Wochen war sie zu dem Schluss gekommen, dass die Software zu 99 Prozent Recht hatte - und damit im Vergleich zu den menschlichen Irrtümern sehr gut im Rennen lag."

Intelligent Memory ist voraussichtlich ab Juli dieses Jahres allgemein verfügbar. Die Software benötigt die aktuelle Data-Warehouse-Version 14.10. Unter Umständen fällt also ein Upgrade an. (mhr)