Web

 

Tagma: Hitachis neues Speichermonster

07.09.2004
HDS virtualisiert mit seiner neuen Highend-Lösung bis zu 32 Petabyte Daten auch auf Konkurrenz-Arrays. Die "TagmaStore"-Hardware wird durch Software, Services und integrierte Lösungspakete flankiert.

Nach "Thunder" und "Lightning" will Hitachi Data Systems (HDS) jetzt mit der neuen Speichergeneration "Tagma" (Computerwoche.de berichtete) den Markt aufrollen, die als Konsolidierungsplattform für Speicherumgebungen dient. Hitachi bietet mit der neuen Speichergeneration nicht nur ein Hardwarekonzept ("TagmaStore") an, sondern auch neue Software ("TagmaSsoft"), Services ("TagmaServ") sowie integrierte Lösungspakete ("TagmaSolve").

Im Zentrum der heutigen Ankündigung steht die neue Hardware "Universal Storage Platform" (USP), die in drei Versionen angeboten wird. Der interne Aufbau "Universal Star Network" ist eine Weiterentwicklung der von der Lightning bekannten "Non-blocking-Switching Architecture". Verbessert wurden unter anderem die Plattenschnittstelle (jetzt mit 2 GB/Sekunde), das Design für Fibre Channel (FC) und FICON sowie Anzahl und Typ der RISC-Prozessoren. Eine separate Zone für das Control Memory soll mehr Zuverlässigkeit und Servicefreundlichkeit gewähren. Außerdem wurde die Möglichkeiten zur Raid-Konfiguration erhöht.

Das Einstiegssystem "USP100" speichert bei Verwendung von 300-GB-Platten bis zu 77 TB und liefert eine Transferrate von 17 GB in der Sekunde. Damit erreicht die kleine Tagma bereits die Leistung des bisherigen Flaggschiffs "Lightning 9980V". Der Speicher arbeitet mit bis zu 64 GB Cache und einem oder zwei "Frontend-Direktoren" (FED), die bis zu 32 ESCON-, 16 FICON-Kanäle oder 64 Fibre-Channels bedienen. Das Einsteigermodell lässt sich auf das Erweiterungssystem "USP 600" aufrüsten. Dazu wird ein zweiter Backend-Direktor, ein Cache-Switch-Paar sowie ein Array-Rahmen hinzugefügt. Der "USP600" wartet dann mit einer internen Bruttokapazität von maximal 154 TB und dem doppelten Durchsatz (34 GB/s) auf.

Wem das nicht reicht, der kauft oder rüstet auf das Highend-Modell "USP1100" auf. Mit vier Switches, zwei oder vier Backend-Dirketoren und bis zu sechs FEDs akzeptiert das Silo bis zu 96 ESCON-, 48 FICON- und 192 FC-Verbindungen. Es fasst intern 332 TB brutto und liefert eine Bandbreite von 68 GB in der Sekunde. Die große Tagma hat nach Herstellerangaben einen viermal so hohen Durchsatz wie das Lightning-System.

Die neue Plattform soll nach den Vorstellungen von Hitachi als Konsolidierungszentrale für bestehende Speicher agieren. Dazu verwaltet Tagma bis zu 32 Petabyte (PB) intern und extern gelagerter Daten. Der Fahrplan für die Unterstützung externer Subsysteme beginnt mit den hauseigenen "Thunder"- und "Lightning"-Familien (einschließlich der OEM-Versionen von Sun und Hewlett-Packard). Im ersten Quartal 2005 sollen dann auch Fremdprodukte von IBM, EMC und anderen unter das Tagma-Dach gestellt werden können.

Für die Verwaltung der riesigen Datenbestände bietet HDS die drei Programmfamilien "Universal Volume Manager", "Virtual Partition Manager" und "Universal Replicator" an. Der Volume Manager erlaubt die Virtualisierung der internen und externen Kapazitäten. Zusammen mit dem Programm "Volume Migration" können so Vorgaben gemäß Data Lifecycle Management umgesetzt und Daten auch vom Mainframe auf kostengünstigere Arrays verlagert werden.

Das aus dem Server-Bereich bekannte Partitionieren von Ressourcen erledigt der Virtual Partition Manager jetzt im Speicherbereich: Interne und externe Speicherkapazitäten werden in "Private Virtual Storage Machines" unterteilt. Diese lassen sich unabhängig voneinander administrieren und dynamisch modifizieren. Der Hersteller erlaubt die Einrichtung von bis zu 32 Partitionen. HDS hat den Universal Replicator für die asynchrone Remote-Duplizierung von Daten überarbeitet. Die neue Version repliziert Daten zwischen heterogenen Systemen und unterstützt auch IT-Strukturen mit mehreren Rechenzentren. (kk)