Storage Grids speichern intelligent

02.11.2004
Von Tim Nolte

Dagegen bietet beispielsweise Network Attached Storage (NAS) schon mehr Flexibilität. Die Clients greifen dabei über das Netzwerk auf den Speicherpool zu, ohne dass ein einziger Server den Zugang kontrolliert. NAS-Lösungen bieten nicht nur eine höhere Performance, sie erlauben auch den Zugriff über verschiedene Protokolle. Die Ressourcen können den anstehenden Aufgaben relativ flexibel zugeteilt werden, wenngleich viele NAS-Systeme proprietär sind. Der Anwender hat somit nicht die freie Wahl, welche Hard- und Software unterstützt wird. Dies kann beispielsweise dazu führen, dass verschiedene Backup-Lösungen für verschiedene Systeme eingesetzt werden müssen, was die Interoperabilität einschränkt und zudem die Kosten nach oben treibt.

Das Maximum an Flexibilität und Performance bieten derzeit Storage Area Networks (SANs). Das sind separate Speichernetzwerke (in der Regel auf Basis von Fibre Channel), die parallel zum LAN arbeiten und für den raschen Datentransfer zu den Speichersystemen reserviert sind. Selbst große Speicherlandschaften im mehrstelligen Terabyte-Bereich treten wie eine geschlossene Einheit auf. Verteiltes Speichern von Daten auf mehreren Festplatten funktioniert ohne spürbaren Performance-Verlust. SANs sind deshalb hochgradig skalierbar. Sie können sich aus verschiedenen Speichersystemen unterschiedlicher Hersteller zusammensetzen.

Ressourcen besser nutzen

Virtualisierung heißt, dass die Nutzung von Rechen- und Speicherkapazität von der tatsächlichen Hardware entkoppelt wird. Eine Applikation fordert dabei ein bestimmtes Speicherkontingent an, dessen Bereitstellung sich nach den geschäftlichen Anforderungen richtet. Je wichtiger ein Prozess ist, desto eher erhält er zusätzliche Ressourcen, die andere Programme derzeit nicht nutzen. Es spielt keine Rolle, auf welchem Speichersystem die Daten liegen. Somit muss nicht jeder Server eigene Reserven für "seine" Applikationen vorhalten. Das gesamte Netzwerk stellt sicher, dass die Programme mit der gewünschten Performance laufen. Es gibt keine separaten, ungenutzten Reservoirs an Rechen- und Speicherkapazität mehr. Dadurch wird die vorhandene Hardware besser ausgelastet: Laut einer IDC-Studie nutzt ein typischer Intel-Server nur 15 Prozent seiner Rechenzeit für produktive Arbeit.

Intelligente Zellen