Vor mehr als zehn Jahren hatten erste Speicherhersteller die Idee, Speicherkapazitäten über ein Netz zu verknüpfen. In der Umsetzung gab es jedoch unterschiedliche Vorstellungen, und diese sollten den Speichermarkt in zwei Hälften spalten:
-
Eine Gruppe band einzelne Laufwerke blockweise über ein Netz, das Storage Area Network (SAN), an Server an. Daten wurden hier in der gleichen Weise organisiert wie auch auf den lokalen Platten. Logische Laufwerke standen zur Verfügung und wurden von den Servern mit passenden Dateisystemen versehen.
-
Dies erschien manchen Entwicklern zu kompliziert. Ihre Idee war es, viele einzelne Server mit ihren freigegebenen Verzeichnissen auf leistungsfähigen Appliances zusammenzulegen. Daraus entstand das Modell des Networked Attached Storage (NAS).
Erste Gehversuche auf dem NAS-Gebiet unternahmen EMC und Network Appliance, heute kurz Netapp. Ihre Systeme zielten nach Ausstattung und Preis ausschließlich auf mittlere und große Installationen ab. Im Lauf der Jahre und mit zunehmend knapper werdenden Budgets gesellten sich viele Hersteller von Systemen für Kleinunternehmen und Mittelständler dazu. Der enorme Funktions- und Leistungszuwachs der vergangenen Jahre macht die NAS-Lösungen zur beliebtesten Speichertechnik. Mehr als die Hälfte aller weltweit verfügbaren Daten sollen künftig auf entsprechenden Geräten gespeichert werden. Die Bandbreite der Lösungen reicht von einfachen Systemen mit einer oder zwei Festplatten bis hin zur leistungsstarken Enterprise-NAS mit theoretisch grenzenlosem Speicherplatz.
Kleinere Unternehmen: Sicherheit durch Plattenspiegelung
Die kleinsten Geräte im Markt werden heute mit einer oder zwei Festplatten angeboten. Ratsam ist die Version mit zwei Platten, denn sie gewährt eine höhere Datensicherheit. Einige Anbieter bauen kompakte Systeme mit zwei Platten und Raid-1-Schutz. Das bedeutet, dass Daten gespiegelt werden, ein prominentes Beispiel dafür ist Iomega mit dem Produkt "ix2-200". Hierbei werden die Daten gleichzeitig auf beide Laufwerke geschrieben. Sollte nun eines ausfallen, stehen die Daten immer noch auf dem anderen zur Verfügung. Über den entsprechenden Controller können alle Daten nach Austausch der Festplatte automatisch auf die neue übertragen und der Schutz damit wieder aufgebaut werden.
Wer mehr Speicherplatz benötigt, dem werden in diesem Segment auch Systeme mit bis zu sechs Laufwerken angeboten, beispielsweise Data Robotics "DroboPro", Iomega "ix4-200d", Synology "DS1010+", Netgear "ReadyNAS pro", Thecus "N5500" oder Seagate "BlackArmor 440". Hier werden je nach Hersteller Raid 5 und Raid 6 zum Schutz der Daten genutzt, auch eine Hotspare-Platte gehört schon fast zu den Selbstverständlichkeiten. So ist auch annähernd jedes kleine Array in der Lage, bei Ausfällen oder ungewöhnlichen Systemzuständen E-Mails oder SNMP-Nachrichten zu senden.
Diese Einstiegsmodelle sind aus Kostengründen meist mit einer Linux-Version und einem preiswerten Controller mit kleinem Cache ausgestattet. Redundanzen bei Lüftern und Netzteilen sucht man durchgehend vergebens, also muss man das Gerät bei deren Ausfall abschalten und auf ein Ersatzteil warten. Ebenfalls aus Kostengründen steht hier meist nur eine einzelne Netzschnittstelle mit 1-Gbit/s-Bandbreite zur Verfügung. Die Lösungen integrieren SATA-Platten mit einem halben bis 2 TB Speichervolumen. Oft stehen fortgeschrittene Funktionen zur Verfügung. Die Einbindung in alle gebräuchlichen Netztopologien, also vor allem CIFS, NFS und Active Directory, ist selbstverständlich. Zunehmend finden sich aber auch Unterstützungen für bisherige "Exoten", so zum Beispiel für Mediendienste in Bild und Ton, Macintosh-Topologien oder den Direktanschluss von Überwachungskameras. Auch besteht die Möglichkeit, die Geräte in iSCSI-Topologien einzubinden.
Zur Grundausstattung zählen Möglichkeiten zum automatischen Backup sowie die Replikation der Dateisysteme auf andere Arrays, die sich über USB anschließen lassen. Die meisten dieser Systeme lassen sich via USB als Print-Server einsetzen.
Mittlere Unternehmen: deutlicher Kapazitätszuwachs
Für dieses Kundensegment hat sich das 19-Zoll-Rackformat als Standard durchgesetzt. In diesen Gehäusen finden zwischen zwölf und 48 Festplatten Platz, als Schnittstelle dienen bei preiswerten Varianten SATA und bei teureren Systemen SAS und SATA (etwa Eurostor "ES-8708DSS-1U" und N-TEC "rapidNAS DSS848-G4"). Momentan gibt es einen Wandel, was die Plattengröße betrifft. Das herkömmliche 3,5-Zoll-Format wird vom kleineren 2,5-Zoll-Format abgelöst
Aufgrund des sowieso schon höheren Preises haben Kunden hier die Auswahl zwischen Linux- und Microsoft-Betriebssystemen. Allerdings hält sich der Funktionszuwachs im Vergleich zu den Arrays für kleinere Unternehmen im Rahmen: Hinzu kommen Möglichkeiten zum Erzeugen von Dateisystemabbildern (Snapshots), die Replikation auf Systeme an anderen Standorten sowie die Online-Änderung des Raid-Schutzes. Zur Auswahl stehen generell Raid 1, 5, 6 sowie gestrippte Versionen (also -50 und -60). Viele Hersteller bieten eine Erweiterung der Kapazitäten mit Speichergehäusen ohne eigene Eigenschaften - so genannte Just a Bunch of Disks, JBODs - an. Diese werden entweder über eSAS-Kabel oder proprietäre Steckverbinder angeschlossen.
Zur Erhöhung der Verfügbarkeit werden viele Arrays in diesem Segment entweder serienmäßig oder optional mit einem zweiten Controller sowie redundanten Lüftern und Netzteilen angeboten. Hierdurch läuft das System auch dann weiter, wenn eine dieser Komponenten ausfällt.
Inzwischen halten 10-Gbit-Schnittstellen Einzug, die eine Übertragungsgeschwindigkeit ähnlich wie der vor kurzem eingeführte 8-Gbit-Fibre-Channel bieten. Hochpreisige Geräte können Ethernet und Fibre Channel mischen und somit TCP/IP, iSCSI, FCoE und SAN gleichzeitig anschließen. Meist integrieren die Hersteller zwei oder vier Ethernet-Schnittstellen serienmäßig.
Die NAS-Systeme dieses Segments können Dutzende Server und ihre Kapazitäten konsolidieren. Sie binden sich transparent in die vorhandene Verzeichnisstruktur ein und ersparen dem Unternehmen dadurch hohen Verwaltungs- und Umstellungsaufwand. In vielen Fällen lassen sich CIFS-, NFS- und Active-Directory-Sicherheitsstrukturen kombinieren, so dass Linux-, Unix- und Windows-Anwender auf die gleichen Dateien zugreifen können und durch dieselben Sicherheitsstrukturen limitiert werden.
Wie in allen anderen Speicherkategorien verschwimmen die Grenzen der Anforderungen zwischen Systemen für kleine und mittlere sowie große Unternehmen. In allen Betrieben wächst die Datenmenge ungebremst. Vielerorts sind Hunderte Terabyte-Platten mit entsprechenden Kapazitäten im Einsatz, die im laufenden Betrieb auf- und umgerüstet werden können. Physikalische und logische Repliken erweitern die Backup-Fenster, die Schutzklassen lassen sich ebenfalls im laufenden Betrieb ändern, was den ersten Ansatz zum allgegenwärtigen Storage-Tiering bietet.
Großunternehmen: Leistung zählt
NAS-Systeme für große Unternehmen lassen sich anhand von zwei typischen Eigenschaften identifizieren:
-
Sie nutzen Fibre-Channel-Netze und Flash-Laufwerke.
-
Neben der Kapazität lassen sich auch Rechenleistung und Konnektivität skalieren, etwa bei den Modellen "NAS 3000" von Hitachi Data Systems (HDS), "FAS" von Netapp und "Celerra" von EMC.
Die Hersteller von Enterprise-NAS konzentrieren sich eindeutig auf leistungsstarke Systeme. Das gilt für den Datentransfer, für den Anschluss möglichst vieler unterschiedlicher Systeme und für den Backend-Bereich, also für die eigentlichen Speichermedien. Viele Anbieter bauen NAS-"Köpfe" vor ihre Hochleistungs-Speichersysteme, um den Zugriff auf deren logische Laufwerke einfacher zu gestalten. Damit ersparen sie sich die Entwicklung komplett eigenständiger NAS-Plattformen und geben dem Kunden zudem die Möglichkeit, neben einem reinen NAS-Betrieb auch über Fibre Channel, also via SAN, auf die Maschinen zuzugreifen.
In ihrer Leistungsfähigkeit liegen die Enterprise-NAS-Systeme weit oberhalb von allem, was ein als File-Server eingesetzter Linux-, Unix- oder Windows-Rechner bieten kann. Mit der Ausrichtung auf den reinen Dateitransport reduzieren sie zudem die Stellfläche im Vergleich zu Standardsystemen. In Kombination mit der 10-Gbit-Ethernet-Schnittstelle und der dadurch möglichen Nutzung der vorhandenen LAN-Infrastruktur werden diese Appliances nun zur echten Alternative zum Aufbau proprietärer SANs, die vollständig eigene Netze erfordern.
Die meisten Enterprise-NAS-Systeme bringen erweiterte Funktionen mit. So findet man in den meisten Angeboten Möglichkeiten zur Datendeduplikation und zum Thin Provisioning. Mit diesen Funktionen lässt sich die Belegung des Speichers durch mehrmals vorhandene Daten vermeiden und den Nutzern nur jeweils so viel Speicher bereitstellen, wie diese tatsächlich benötigen. Durch beide Funktionen kann die Speicherbelegung je nach Umgebung zwischen 50 und 75 Prozent reduziert werden. Manche Hersteller werben sogar mit noch höheren Werten.
Die Zukunft: Große Namensräume, riesige Dateimengen
Auch wenn Firmen sich für das eine oder andere NAS-System entscheiden, also ihre einzelnen Server durch diesen zentralen Dienst ablösen, stoßen sie früher oder später an die Grenzen der Leistungsfähigkeit ihrer NAS-Installation. Die Zahl der zu verwaltenden Laufwerke wird unüberschaubar, die der gespeicherten Dateien sowieso, selbst wenn Deduplikation bereits für eine gewisse Ordnung gesorgt hat. Und all diese Datenmassen überschreiten irgendwann auch die Möglichkeiten der größten NAS-Appliances am Markt.
Den einzigen Ausweg aus diesem Dilemma bieten heute große monolithische Namensräume, die sich als eine einzige Einheit aufbauen lassen. In ihnen können fast beliebige Mengen an Dateien gespeichert und auf relativ einfache Weise verwaltet werden.
Um dieses Wachstum zu unterstützen, benötigt der Anwender eine völlig neue Architektur. Diese muss klein starten können und annähernd beliebig erweiterbar sein, der Ausbau muss unbemerkt für die Nutzer vonstatten gehen.
Eine solche Architektur hat IBM mit seinem NAS-Modell "Sonas" (Scale out NAS), vorgestellt. Dieses neue System soll mit größten Dateimengen umgehen können und darüber hinaus annähernd unbegrenzt skalieren, nach aktuellem Stand wären das bis zu 14,4 Petabyte. Mit Hilfe einer neuen Speicherklassifizierungstechnik können in kürzester Zeit mehr als eine Milliarde Dateisystemeinträge katalogisiert werden. Auf Basis dieses Katalogs lassen sich laut Hersteller die Dateien auf Policy-Basis einordnen. Hiermit können Datenbestände wesentlich einfacher übersehen und nötige Migrationen schneller und effizienter vorgenommen werden. IBM nutzt für Sonas das GPFS (General Parallel File System) und seinen Tivoli Storage Manager. Maximal 256 Dateisysteme lassen sich in einer Appliance ablegen, für jedes dieser Dateisysteme bis zu 256 Snapshots bestimmter Zustände speichern. Alle Dateien werden je nach Leistungsansprüchen in zwei Schichten des globalen Namensraumes (Global Name Space = GNS) abgelegt.
Für die Zukunft steht zu erwarten, dass alle großen Hersteller in diese Richtung einschwenken und skalierbare NAS-Speicher mit automatischer Datenklassifizierung mit Nachdruck anbieten werden. Bei den zu verwaltenden Mengen an Dateien werden die Anwender auch keine andere Chance mehr haben, als sich auf diese Automatismen einzulassen und auf ihre Ergebnisse zu vertrauen.
NAS mausert sich zur Allroundplattform
NAS begleitet den Markt schon seit langem und nimmt jetzt erneut Fahrt auf. Laut Analysten befanden sich in den letzten fünf Jahren im Schnitt fast 40 Prozent des Open-Systems-Speichers in NAS-Systemen, Tendenz schnell steigend. In den kommenden Jahren rechnen die Marktbeobachter damit, dass über die Hälfte aller Kapazitäten in NAS-Konfigurationen liegen. Dedizierte NAS-Systeme bringen wesentlich mehr und einfacher zu verwaltende Funktionen mit als die Datenhaltung auf einzelnen Servern. Datendeduplizierung, Thin Provisioning und Virenkontrolle lassen sich hier effizienter und vor allem zentral nutzen. Die neuen Scale-out-Architekturen werden im Zusammenspiel mit virtualisierten Rechnerumgebungen und der weiter steigenden Netzleistung zum zentralen Bestandteil der Datenverarbeitung unter Windows und Linux werden. Wer in mittleren und großen Umgebungen heute noch einzelne Datei-Server installiert, verbrennt in den meisten Fällen mutwillig das Geld seines Arbeitgebers. (jha)