Marktüberblick Netzspeicher

Zweiter Frühling für NAS

09.04.2010 von Ulrike Rieß
Das NAS-Konzept ist bereits über zehn Jahre alt und derzeit wieder en vogue. Das Angebot für alle Unternehmensgrößen steigt.
Quelle: M. Richter/Fotolia.
Foto: Fotolia, M. Richter

Vor mehr als zehn Jahren hatten erste Speicherhersteller die Idee, Speicherkapazitäten über ein Netz zu verknüpfen. In der Umsetzung gab es jedoch unterschiedliche Vorstellungen, und diese sollten den Speichermarkt in zwei Hälften spalten:

NAS für den Business-Einsatz
Die NAS-Struktur im Überblick
So sieht die Grundstruktur einer NAS-Installation aus. Lösungsbeispiele finden Sie auf den folgenden Seiten.
Iomega: ix2-200
Die ix2-200 von Iomega ist ein Vertreter eine einfacher NAS-Lösung für kleine Unternehmen. Sie integriert zwei Platten, so dass Date gespiegelt werden und damit auch bei Ausfall eines Laufwerks zur Verfügung stehen.
Data Robotics: DoboPro
Etwas leistungstärker ist beispielsweise das Speichersysten DoboPro von Data Robotics. Es bietet Platz für bis zu acht Festplatten mit einerm Gesamtvolumen von 16 TB.
Eurostor: ES-8708DSS-1U
Die Eurostor-Lösung ES-8708DSS ist eine Speicherlösung im 19-Zoll-Format. Sie ist für höhere Ansprüche konzipiert und integriert bis zu 24 Festplatten.
Hitachi: Die NAS 3080-3090
Die NAS-3000-Series ist etwas für große Unternehmen. Rechenleistung und Konnektivität lassen sich skalieren.
Netapp: Die FAS-6000-Serie
Auch die FAS-Modelle von Netapp gehören in die Kategorie NAS für Großunternehmen. Geräte dieser Leistungsklasse zeichnen sich beispielsweise durch umfangreiche Anschlussmöglichkeiten aus (etwa FiberChannel, FiberChannel over Ethernet,iSCSI).
IBM: Sonas
Das IBM-System soll mit größten Dateimengen umgehen können und angeblich unbegrenzt skalieren.

Erste Gehversuche auf dem NAS-Gebiet unternahmen EMC und Network Appliance, heute kurz Netapp. Ihre Systeme zielten nach Ausstattung und Preis ausschließlich auf mittlere und große Installationen ab. Im Lauf der Jahre und mit zunehmend knapper werdenden Budgets gesellten sich viele Hersteller von Systemen für Kleinunternehmen und Mittelständler dazu. Der enorme Funktions- und Leistungszuwachs der vergangenen Jahre macht die NAS-Lösungen zur beliebtesten Speichertechnik. Mehr als die Hälfte aller weltweit verfügbaren Daten sollen künftig auf entsprechenden Geräten gespeichert werden. Die Bandbreite der Lösungen reicht von einfachen Systemen mit einer oder zwei Festplatten bis hin zur leistungsstarken Enterprise-NAS mit theoretisch grenzenlosem Speicherplatz.

Kleinere Unternehmen: Sicherheit durch Plattenspiegelung

Die kleinsten Geräte im Markt werden heute mit einer oder zwei Festplatten angeboten. Ratsam ist die Version mit zwei Platten, denn sie gewährt eine höhere Datensicherheit. Einige Anbieter bauen kompakte Systeme mit zwei Platten und Raid-1-Schutz. Das bedeutet, dass Daten gespiegelt werden, ein prominentes Beispiel dafür ist Iomega mit dem Produkt "ix2-200". Hierbei werden die Daten gleichzeitig auf beide Laufwerke geschrieben. Sollte nun eines ausfallen, stehen die Daten immer noch auf dem anderen zur Verfügung. Über den entsprechenden Controller können alle Daten nach Austausch der Festplatte automatisch auf die neue übertragen und der Schutz damit wieder aufgebaut werden.

DroboPro von Data Robotics nimmt bis zu acht Festplatten auf.
Foto: Data Robotics

Wer mehr Speicherplatz benötigt, dem werden in diesem Segment auch Systeme mit bis zu sechs Laufwerken angeboten, beispielsweise Data Robotics "DroboPro", Iomega "ix4-200d", Synology "DS1010+", Netgear "ReadyNAS pro", Thecus "N5500" oder Seagate "BlackArmor 440". Hier werden je nach Hersteller Raid 5 und Raid 6 zum Schutz der Daten genutzt, auch eine Hotspare-Platte gehört schon fast zu den Selbstverständlichkeiten. So ist auch annähernd jedes kleine Array in der Lage, bei Ausfällen oder ungewöhnlichen Systemzuständen E-Mails oder SNMP-Nachrichten zu senden.

Diese Einstiegsmodelle sind aus Kostengründen meist mit einer Linux-Version und einem preiswerten Controller mit kleinem Cache ausgestattet. Redundanzen bei Lüftern und Netzteilen sucht man durchgehend vergebens, also muss man das Gerät bei deren Ausfall abschalten und auf ein Ersatzteil warten. Ebenfalls aus Kostengründen steht hier meist nur eine einzelne Netzschnittstelle mit 1-Gbit/s-Bandbreite zur Verfügung. Die Lösungen integrieren SATA-Platten mit einem halben bis 2 TB Speichervolumen. Oft stehen fortgeschrittene Funktionen zur Verfügung. Die Einbindung in alle gebräuchlichen Netztopologien, also vor allem CIFS, NFS und Active Directory, ist selbstverständlich. Zunehmend finden sich aber auch Unterstützungen für bisherige "Exoten", so zum Beispiel für Mediendienste in Bild und Ton, Macintosh-Topologien oder den Direktanschluss von Überwachungskameras. Auch besteht die Möglichkeit, die Geräte in iSCSI-Topologien einzubinden.

Zur Grundausstattung zählen Möglichkeiten zum automatischen Backup sowie die Replikation der Dateisysteme auf andere Arrays, die sich über USB anschließen lassen. Die meisten dieser Systeme lassen sich via USB als Print-Server einsetzen.

Mittlere Unternehmen: deutlicher Kapazitätszuwachs

Die Eurostor-Lösung ES-8708DSS ist eine Speicherlösung im 19-Zoll-Format. Sie ist für höhere Ansprüche konzipiert und integriert bis zu 24 Festplatten.
Foto: Eurostor

Für dieses Kundensegment hat sich das 19-Zoll-Rackformat als Standard durchgesetzt. In diesen Gehäusen finden zwischen zwölf und 48 Festplatten Platz, als Schnittstelle dienen bei preiswerten Varianten SATA und bei teureren Systemen SAS und SATA (etwa Eurostor "ES-8708DSS-1U" und N-TEC "rapidNAS DSS848-G4"). Momentan gibt es einen Wandel, was die Plattengröße betrifft. Das herkömmliche 3,5-Zoll-Format wird vom kleineren 2,5-Zoll-Format abgelöst

Aufgrund des sowieso schon höheren Preises haben Kunden hier die Auswahl zwischen Linux- und Microsoft-Betriebssystemen. Allerdings hält sich der Funktionszuwachs im Vergleich zu den Arrays für kleinere Unternehmen im Rahmen: Hinzu kommen Möglichkeiten zum Erzeugen von Dateisystemabbildern (Snapshots), die Replikation auf Systeme an anderen Standorten sowie die Online-Änderung des Raid-Schutzes. Zur Auswahl stehen generell Raid 1, 5, 6 sowie gestrippte Versionen (also -50 und -60). Viele Hersteller bieten eine Erweiterung der Kapazitäten mit Speichergehäusen ohne eigene Eigenschaften - so genannte Just a Bunch of Disks, JBODs - an. Diese werden entweder über eSAS-Kabel oder proprietäre Steckverbinder angeschlossen.

Zur Erhöhung der Verfügbarkeit werden viele Arrays in diesem Segment entweder serienmäßig oder optional mit einem zweiten Controller sowie redundanten Lüftern und Netzteilen angeboten. Hierdurch läuft das System auch dann weiter, wenn eine dieser Komponenten ausfällt.

Inzwischen halten 10-Gbit-Schnittstellen Einzug, die eine Übertragungsgeschwindigkeit ähnlich wie der vor kurzem eingeführte 8-Gbit-Fibre-Channel bieten. Hochpreisige Geräte können Ethernet und Fibre Channel mischen und somit TCP/IP, iSCSI, FCoE und SAN gleichzeitig anschließen. Meist integrieren die Hersteller zwei oder vier Ethernet-Schnittstellen serienmäßig.

Die NAS-Systeme dieses Segments können Dutzende Server und ihre Kapazitäten konsolidieren. Sie binden sich transparent in die vorhandene Verzeichnisstruktur ein und ersparen dem Unternehmen dadurch hohen Verwaltungs- und Umstellungsaufwand. In vielen Fällen lassen sich CIFS-, NFS- und Active-Directory-Sicherheitsstrukturen kombinieren, so dass Linux-, Unix- und Windows-Anwender auf die gleichen Dateien zugreifen können und durch dieselben Sicherheitsstrukturen limitiert werden.

Wie in allen anderen Speicherkategorien verschwimmen die Grenzen der Anforderungen zwischen Systemen für kleine und mittlere sowie große Unternehmen. In allen Betrieben wächst die Datenmenge ungebremst. Vielerorts sind Hunderte Terabyte-Platten mit entsprechenden Kapazitäten im Einsatz, die im laufenden Betrieb auf- und umgerüstet werden können. Physikalische und logische Repliken erweitern die Backup-Fenster, die Schutzklassen lassen sich ebenfalls im laufenden Betrieb ändern, was den ersten Ansatz zum allgegenwärtigen Storage-Tiering bietet.

Großunternehmen: Leistung zählt

NAS-Systeme für große Unternehmen lassen sich anhand von zwei typischen Eigenschaften identifizieren:

Die FAS-6000 von Netapp: Eine NAS-Lösung für große Unternehmen.
Foto: Netapp

Die Hersteller von Enterprise-NAS konzentrieren sich eindeutig auf leistungsstarke Systeme. Das gilt für den Datentransfer, für den Anschluss möglichst vieler unterschiedlicher Systeme und für den Backend-Bereich, also für die eigentlichen Speichermedien. Viele Anbieter bauen NAS-"Köpfe" vor ihre Hochleistungs-Speichersysteme, um den Zugriff auf deren logische Laufwerke einfacher zu gestalten. Damit ersparen sie sich die Entwicklung komplett eigenständiger NAS-Plattformen und geben dem Kunden zudem die Möglichkeit, neben einem reinen NAS-Betrieb auch über Fibre Channel, also via SAN, auf die Maschinen zuzugreifen.

In ihrer Leistungsfähigkeit liegen die Enterprise-NAS-Systeme weit oberhalb von allem, was ein als File-Server eingesetzter Linux-, Unix- oder Windows-Rechner bieten kann. Mit der Ausrichtung auf den reinen Dateitransport reduzieren sie zudem die Stellfläche im Vergleich zu Standardsystemen. In Kombination mit der 10-Gbit-Ethernet-Schnittstelle und der dadurch möglichen Nutzung der vorhandenen LAN-Infrastruktur werden diese Appliances nun zur echten Alternative zum Aufbau proprietärer SANs, die vollständig eigene Netze erfordern.

Die meisten Enterprise-NAS-Systeme bringen erweiterte Funktionen mit. So findet man in den meisten Angeboten Möglichkeiten zur Datendeduplikation und zum Thin Provisioning. Mit diesen Funktionen lässt sich die Belegung des Speichers durch mehrmals vorhandene Daten vermeiden und den Nutzern nur jeweils so viel Speicher bereitstellen, wie diese tatsächlich benötigen. Durch beide Funktionen kann die Speicherbelegung je nach Umgebung zwischen 50 und 75 Prozent reduziert werden. Manche Hersteller werben sogar mit noch höheren Werten.

Die Zukunft: Große Namensräume, riesige Dateimengen

Auch wenn Firmen sich für das eine oder andere NAS-System entscheiden, also ihre einzelnen Server durch diesen zentralen Dienst ablösen, stoßen sie früher oder später an die Grenzen der Leistungsfähigkeit ihrer NAS-Installation. Die Zahl der zu verwaltenden Laufwerke wird unüberschaubar, die der gespeicherten Dateien sowieso, selbst wenn Deduplikation bereits für eine gewisse Ordnung gesorgt hat. Und all diese Datenmassen überschreiten irgendwann auch die Möglichkeiten der größten NAS-Appliances am Markt.

Den einzigen Ausweg aus diesem Dilemma bieten heute große monolithische Namensräume, die sich als eine einzige Einheit aufbauen lassen. In ihnen können fast beliebige Mengen an Dateien gespeichert und auf relativ einfache Weise verwaltet werden.

Um dieses Wachstum zu unterstützen, benötigt der Anwender eine völlig neue Architektur. Diese muss klein starten können und annähernd beliebig erweiterbar sein, der Ausbau muss unbemerkt für die Nutzer vonstatten gehen.

Die Sonas von IBM ist auf Hochleistung ausgelegt.
Foto: IBM

Eine solche Architektur hat IBM mit seinem NAS-Modell "Sonas" (Scale out NAS), vorgestellt. Dieses neue System soll mit größten Dateimengen umgehen können und darüber hinaus annähernd unbegrenzt skalieren, nach aktuellem Stand wären das bis zu 14,4 Petabyte. Mit Hilfe einer neuen Speicherklassifizierungstechnik können in kürzester Zeit mehr als eine Milliarde Dateisystemeinträge katalogisiert werden. Auf Basis dieses Katalogs lassen sich laut Hersteller die Dateien auf Policy-Basis einordnen. Hiermit können Datenbestände wesentlich einfacher übersehen und nötige Migrationen schneller und effizienter vorgenommen werden. IBM nutzt für Sonas das GPFS (General Parallel File System) und seinen Tivoli Storage Manager. Maximal 256 Dateisysteme lassen sich in einer Appliance ablegen, für jedes dieser Dateisysteme bis zu 256 Snapshots bestimmter Zustände speichern. Alle Dateien werden je nach Leistungsansprüchen in zwei Schichten des globalen Namensraumes (Global Name Space = GNS) abgelegt.

Für die Zukunft steht zu erwarten, dass alle großen Hersteller in diese Richtung einschwenken und skalierbare NAS-Speicher mit automatischer Datenklassifizierung mit Nachdruck anbieten werden. Bei den zu verwaltenden Mengen an Dateien werden die Anwender auch keine andere Chance mehr haben, als sich auf diese Automatismen einzulassen und auf ihre Ergebnisse zu vertrauen.

Storage-Trends 2010
Storage-Trends 2010
Andreas Bechter, Symantec: „Siebzig Prozent aller Unternehmen setzen noch keine Deduplizierung ein. Dies wird sich dieses Jahr ändern, da die Firmen diese Funktion aktivieren wollen, sobald sie standardmäßig in den Speichersystemen integriert ist.“ (Quelle: Symantec)
Storage-Trends 2010
Bernd Gill, HP: „Das Thema Energieeffizienz ist mittlerweile Bestandteil der meisten Ausschreibungen.“ (Quelle: Hewlett Packard)
Storage-Trends 2010
Detlef Lieb, FTS: „Die Auswirkungen der Finanzkrise sind mit einiger Verzögerung deutlich spürbar. Allerdings gibt es bezüglich Speichersysteme wenig Alternativen, um dem gewaltigen Datenwachstum Herr zu werden.“ (Quelle: Fujitsu Technology Systems)
Storage-Trends 2010
Georgios Rimikis, HDS: „Konsolidierung und Virtualisierung sind bei Hitachi Data Systems kein Widerspruch, sie gehen Hand in Hand.“ (Quelle: Hitachi Data Systems)
Storage-Trends 2010
Mika Kotro, EMC: „Die Verwaltung der immer weiter ansteigenden Datenmengen stellt weiterhin eine große Herausforderung dar.“ (Quelle: EMC)

NAS mausert sich zur Allroundplattform

NAS begleitet den Markt schon seit langem und nimmt jetzt erneut Fahrt auf. Laut Analysten befanden sich in den letzten fünf Jahren im Schnitt fast 40 Prozent des Open-Systems-Speichers in NAS-Systemen, Tendenz schnell steigend. In den kommenden Jahren rechnen die Marktbeobachter damit, dass über die Hälfte aller Kapazitäten in NAS-Konfigurationen liegen. Dedizierte NAS-Systeme bringen wesentlich mehr und einfacher zu verwaltende Funktionen mit als die Datenhaltung auf einzelnen Servern. Datendeduplizierung, Thin Provisioning und Virenkontrolle lassen sich hier effizienter und vor allem zentral nutzen. Die neuen Scale-out-Architekturen werden im Zusammenspiel mit virtualisierten Rechnerumgebungen und der weiter steigenden Netzleistung zum zentralen Bestandteil der Datenverarbeitung unter Windows und Linux werden. Wer in mittleren und großen Umgebungen heute noch einzelne Datei-Server installiert, verbrennt in den meisten Fällen mutwillig das Geld seines Arbeitgebers. (jha)