Weg vom Kistenschieber-Image

Hitachi Data Systems positioniert sich neu

08.06.2012 von Kriemhilde Klippstätter 
Heutige Techniken der Datenspeicherung genügen künftigen Anforderungen an die Datenhaltung nicht mehr, glauben die Verantwortlichen von Hitachi Data Systems und wollen sich neu als Content-Manager im Storage-Markt positionieren.

Michael Heitz, frischgebackener Geschäftsführer der deutschen HDS-Niederlassung, forderte in seiner Eröffnungsrede auf einer Veranstaltung des Unternehmens in Mainz die „Transformation des Rechenzentrums in ein Information Center“. Denn in Zukunft würden IT-Verantwortliche in den Unternehmen von immer größeren Datenbergen überrollt werden. Die müssten analysiert, sortiert und nutzbar gemacht werden. Eine Mammutaufgabe, für die es sich beizeiten zu rüsten gelte, mahnen die HDS-Verantwortlichen.

Glaubt man Analysten, stehen wir erst am Anfang der Datenflut. Prognosen von IDC zufolge wächst die gespeicherte Datenmenge von 988 Exabyte im Jahr 2010 auf 9424 Exabyte 2015. Fünf Jahre später werden bereits 89.899 Exabyte Daten anfallen, und 2025 gilt es, 857.535 Exabyte zu speichern.

Jack Domme, CEO Quelle_Hitachi Data Systems
Foto: Hitachi Data Systems

HDS-Chef Jack Domme reiste aus dem kalifornischen Hauptquartier in Santa Clara an, um Kunden und Partner auf dieses Morgen einzustellen. Er fordert, dass künftig statt den Speichern die Daten virtualisiert werden. Nur so sei die notwendige Datenmobilität zu erreichen. „Bislang haben die Anwendungsprogramme die Daten bewegt, aber die sind nicht auf die riesigen Volumina ausgelegt, die in Zukunft anfallen werden“, beschreibt Domme im Gespräch mit der COMPUTERWOCHE das Szenario und fordert deshalb, die Daten müssten von den Applikationen getrennt werden.

Sei dies – mittels Virtualisierung – gelungen, dann könne im nächsten Schritt die „Information Cloud“ genutzt werden. Domme versteht darunter den Einsatz von Business-Intelligence- und heutigen Big-Data-Anwendungen bis hin zu Analyse- und Integrationswerkzeugen. Das führe zur „Content Cloud“, in der Inhalte on Demand bereitgestellt würden. Such- und Interpretationsvorgänge seien dann unabhängig von Applikationen und Speichermedien möglich. Die Datenarchivierung ließe sich etwa als eigenständiger Service buchen: „Die Daten werden die Applikationen überleben, auch wenn Formatänderungen im Speicherbereich ein Verlagern erfordern“, prognostiziert der CEO.

„Wir managen den Content“

Domme sieht seine Firma gut gerüstet für die neuen Storage-Herausforderungen, vor allem seit 2010, als Hiroaki Nakanishi das Zepter von Hitachi Ltd., der Muttergesellschaft von HDS, übernahm. Nakanishi habe alle Abteilungen des japanischen Riesenkonzerns darauf ausgerichtet, als integrierter Global Player aufzutreten. So soll HDS künftig von der „Platform Division“ der Muttergesellschaft profitieren, in der die Server- und Storage-Gruppen zusammengelegt sind. „Wir haben jetzt Research und Development für File und Content“, konstatiert der HDS-Chef. Daraus entwickle sich eine Zusammenarbeit von File- und BlockVirtualisierung, und es entstehe eine integrierte Architektur: „Wir sind nicht länger eine Speicher- und Computer-Company, wir managen den Content.“

Insbesondere die unstrukturierten Daten hat der CEO im Visier. Diese Datenklasse wachse nicht nur besonders stark, sie sei auch schwierig zu analysieren. „Für die Analyse von großen Datenmengen wurde Hadoop entwickelt, das ist Big Data heute. Unser Geschäft sind die unstrukturierten Daten“, beschreibt Domme den zukünftigen Schwerpunkt.

35 Millionen Gesichter

HDS entwickelt dazu bereits Analysesoftware für vertikale Märkte wie Medizintechnik, Sicherheit oder Transportwesen. Das erfordere tiefe Einsichten in die Inhalte, etwa bei der Analyse von Aufnahmen aus Kernspintomografen, betonen die Manager. Da Hitachi aber solche medizinischen Geräte baue, könne das Know-how auch zum Speichern und zur Analyse der anfallenden Daten genutzt werden. Dabei würden die eingehenden Files automatisch und in Echtzeit indexiert, bevor man sie speichert.

Nach Angaben von Domme ist HDS dank biometrischer Mustererkennung beispielsweise heute schon in der Lage, 35 Millionen Gesichter einer Stadt in der Sekunde zu erkennen und zu indexieren. Soll die Bewegung einer verdächtigen Person durch die City verfolgt werden, müssten riesige Datenmengen möglichst schnell durchforstet werden. Das gehe nur mit Analyseprogrammen, die nach indizierten Objekten suchen. „Bis jetzt geht es darum, wo die Daten gelagert sind und wie sie verwaltet werden. In Zukunft wird es darum gehen, die Inhalte zu analysieren“, sagt der CEO und grenzt sein Unternehmen damit auch von den Konkurrenten ab. Den meisten traut er diesen Ansatz nicht zu: „Das kann keine IBM und keine EMC, eine Siemens vielleicht.“

Damit die HDS-Manager ihre Vision umsetzen können, muss die Infrastruktur passen. Dabei helfen soll unter anderem Virtualisierungstechnik, mit der sich auch die Speicher anderer Hersteller einbeziehen lassen. „Hitachi kommt aus dem Mainframe-Geschäft, wir können partitionieren“, beschreibt Domme, woher das Know-how stammt. Anwenderunternehmen könnten auf diese Weise viel Geld sparen, weil vorhandenes Speichergerät optimal eingesetzt wird und der Speicherplatz vollständig zur Verfügung steht, wirbt der Manager.

Genutzt wird Mainframe-Technik auch für Spezialmaschinen, ähnlich wie es Oracle bei den „Exadata“-Speichern macht. HDS bietet die Technik in einem Modell an, in dem Kunden nur für die tatsächlich genutzte Rechen-Power zahlen müssen. Einziger Nachteil solcher Angebote: Kaum jemand hat Kenntnis davon. Der CEO gesteht dieses Manko ein: „Das Einzige, was wir nicht können, das ist Marketing.“

Die neue Mittelklasse

Für die zukünftigen Aufgaben hat HDS kürzlich die neue Mittelklassespeicherfamilie „Hitachi Unified Storage 100“ (HUS 100) vorgestellt, die für block-, file- und objektbasierende Speicherung entwickelt wurde. HUS löst damit die bisherigen Mittelklassespeicher der AMS-2000-Serie und die HNAS-Filer ab, die von BlueArc gebaut wurden. HDS hat den NAS-Lieferanten 2011 übernommen. „Ein vereinheitlichter Speicher muss gemäß Definition Block-Zugriff (FC und iSCSI) und File-Zugriff (NFS und CIFS) ermöglichen. Die HUS-100-Serie unterstützt darüber hinaus Objekte, so dass man eher von einem universellen Speicher sprechen sollte“, beschreibt Speicheranalyst Josh Krischer in einem Report den Neuling, der in drei Ausbaustufen zu haben ist.

Festplatten: Sinkende Preise sind Vergangenheit

Hubert „Hu“ Yoshida, Vice President, CTO und technischer Vordenker von HDS
Foto: Hitachi Data Systems

Nach Mainz kam auch Hubert „Hu“ Yoshida, Vice President, CTO und technischer Vordenker von HDS. Er ist der Meinung, dass Anwender in Zukunft nicht nur von den wachsenden Datenbergen überrollt werden, sondern auch von den physikalischen Beschränkungen der Festplattentechnik betroffen sind. Seit rund 50 Jahren sinkt der Preis für die Laufwerke jährlich um rund 30 Prozent, denn die Kapazitäten verdoppeln sich im Schnitt alle 18 Monate. „Daran haben sich die Leute gewöhnt und ihre Investitionszyklen darauf abgestellt“, sagt der CTO.

Seit der großen Überschwemmungskatastrophe in Thailand im vergangenen Jahr ändert sich jedoch das Marktumfeld. Zwar werde der Lieferengpass demnächst abgearbeitet sein, aber die Preise blieben wegen der teuren Investitionen in neue Fabriken hoch. Dazu komme, dass sich die Speicherkapazitäten nicht mehr so schnell steigern lassen. Die herkömmliche Perpendicular-Aufzeichnungsmethode liefert 620 GB pro Quadrat-Inch und kann kaum mehr gesteigert werden. Seagate kündigte zwar das neue Verfahren „Heat-Assisted Magnetic Recording“ (HAMR) an, mit dem sich die Aufzeichnungsdichte auf 1 TB je Quadrat-Inch steigern lässt – allerdings erst bis zum Jahr 2020. Noch dazu verwendet man für HAMR einen Laser, was neue Produktionsverfahren erfordert und die Herstellung zusätzlich verteuert. „Die 30 Prozent Kostenreduzierung gehören der Vergangenheit an“, da ist sich Yoshida sicher.