Datenmengen kostengünstig speichern

03.04.2012
Big Data nennt sich ein Phänomen, das altbekannt ist: In den Unternehmen sammeln sich Unmengen an meist unstrukturierten Daten. Bevor sie verarbeitet werden können, gilt es erst einmal, sie zu speichern.

Mit den Datenmengen steigen auch die Ausgaben für Speicherlösungen. Andererseits geht der technische Fortschritt weiter, die Anbieter finden immer neue Wege, mehr Daten zu einem gegebenen Preis speichern zu können. Allen voran sorgt die Speichervirtualisierung für eine bessere Auslastung der Maschinen. Ein "Nebeneffekt" ist die Zentralisierung der Datenhaltung - wichtig für jeden, der Cloud Computing ins Auge fasst.

Im Zuge der Server-Virtualisierung hat sich der Trend zum gemeinsamen Speicher noch verstärkt: Viele virtuelle Maschinen nutzen einen gemeinsamen Datenpool. Sollte sich die Desktop-Virtualisierung durchsetzen, so muss dafür aber auch in Storage investiert werden, denn der Ausfall einer Festplatte bedeutet dann nicht mehr, dass nur ein Anwender untätig wartet, sondern vielleicht eine ganze Abteilung.

Eine von Symantec im Jahr 2011 vorgenommene weltweite Befragung von 3700 CEOs und CFOs zeigt, dass 56 Prozent mit der Server-Virtualisierung auch steigende Ausgaben für Storage beobachten. Diejenigen, die gerade dabei waren, ihre Speicher zu virtualisieren, nannten als Beweggründe für die neue Technik vor allem niedrigere Betriebskosten und verbesserte Storage-Performance.

Scale-out versus Scale-up

Die große Mehrheit der anfallenden Informationen stellen heute unstrukturierte Daten dar, etwa Bild- und Tondokumente, die vorzugsweise auf NAS-Filern abgelegt werden. Muss ein Unternehmen seine Speicherlandschaft - egal ob für strukturierte oder unstrukturierte Daten - erweitern, dann stehen dafür grundsätzlich zwei Wege offen: "Der Anwender kann innerhalb des Systems Performance und Kapazitäten ausbauen (scale-up) oder die Systemumgebung durch zusätzliche Geräte erweitern (scale-out)", definiert Mark Peters von der Enterprise Strategy Group die möglichen Vorgehensweisen. Ziel jeder Art von Speichererweiterung sei es, "eine dynamische und unterbrechungsfreie Umgebung zu schaffen, die das Datenwachstum in der Weise unterstützt, dass die Systemfunktionen so ausgeglichen und produktiv wie möglich erhalten bleiben".

Billiger als Monolithen

Der Streit darüber, ob das besser mit Scale-out- oder Scale-up-Systemen zu erreichen ist, dauert an. Die Praxis zeigt aber, dass Scale-out-Lösungen zunehmend Verbreitung finden. Das liegt zum einen daran, dass solche Grid- oder Cluster-Lösungen aus herkömmlichen Komponenten aufgebaut und somit billiger sind als monolithische, meist proprietäre HighendSysteme. Ebenfalls absatzfördernd wirkt sich aus, dass die Komponenten eines Scale-out-Systems - Server, Switch und Speicher - an Leistungsfähigkeit zulegen, sprich technisch weiterentwickelt werden und den Highend-Lösungen schon heute in puncto Performance oft Paroli bieten können.

Zentrale Steuerung und Verteilung

Hersteller von großen (und teuren) Scale-up-Speichern geben zu bedenken, dass bei diesen Geräten ein zentrales Betriebssys-tem im Speicher-Controller als Kommandozentrale agiert und sich so alle Speicherfunktionen steuern lassen. Ein weiterer Vorteil sei der globale Cache-Speicher, mit dem sich die Last auf alle Komponenten optimal verteilen lässt. Schließlich erreiche man durch die interne Netzstruktur eines Scale-up-Systems, die heutzutage aus Crossbar-Switches besteht, sehr hohe Transferraten, die über externe Netze kaum zu realisieren sind.

Derzeit empfehlen aber selbst Hersteller von Highend-Speichern wie Hitachi Data Systems gemischten Lösungen, oft in Form eines Speicher-Tierings, wo dem Highend-Scale-up-System (Tier 1) kostengünstigere Scale-out-Speicher beigeordnet sind (Tier 2 und höher). Die wachsende Bedeutung von Scale-out-Speichern - meist Network Attached Storage (NAS) - lässt sich auch daran ablesen, dass in jüngster Vergangenheit viele entsprechende Anbieter von großen Speicher- oder IT-Herstellern übernommen wurden.

Das Dateisystem ist wichtig ...

Obwohl die Scale-out-Speicherarchitektur auch für Direct Attached Storage (DAS) und Storage Area Networks (SAN) taugt, wird sie meistens mit NAS-Systemen in Verbindung gebracht. Solche Systeme werden aus NAS-Knoten aufgebaut, die meist aus einem herkömmlichen Server, Festplatten und Netzwerk-Switches bestehen. Mehrere Knoten bilden einen Cluster-Verbund, über den ein Software-Layer, der "Single global Namespace", gespannt wird. Darunter verhalten sich die Komponenten wie in einem großen File-System, was die Verwaltung des Systems vereinfacht. Wird mehr Leistung, Durchsatz oder Speicherkapazität benötigt, wird dem Cluster-Verbund einfach ein neuer Knoten hinzugefügt. In der Theorie lassen sich Leistung und Kapazität nahezu unendlich steigern, und das auch noch ohne zusätzliches IT-Personal.

... und die Sicherheit ebenso

Große Datenmengen auf einem Speichersystem erfordern ein Plus an Sicherheit, vor allem auch für Business-Continuity. "Man benötigt dazu erst einmal Messdaten und Analysen über die Leistung des Systems", beschreibt Rob Anderson, CTO Emea der EMC-Tochter Isilon, die Anforderungen. Bei Isilons NAS-Systemen können vier Komponenten ausfallen, bevor das Gesamtsystem kollabiert - wohlgemerkt ohne Datenspiegelung. "Wir nennen das N+4-Protection - bei einer Speicherauslastung von 80 Prozent", wirbt der Manager.

Scale-out spart Kosten

Analysten von IDC haben ausgerechnet, dass Unternehmen mit der Einführung von Scale-out-NAS auch beim IT-Management kräftig sparen können: Die Zeiten für den Backup verringern sich um 76 Prozent, die für das Provisionieren um 60 Prozent, und die Nutzung der Systeme steigt um 30 Prozent. Umgerechnet auf gespeicherte Terabyte (TB), bedeutet das pro Jahr eine Kostenersparnis von 5630 Dollar je TB. Dazu kommen noch die gestiegene Produktivität der einzelnen Anwender (1910 Dollar/Jahr) und der IT-Administratoren (660 Dollar/Jahr). Zusammen ergibt das im Jahr eine Summe von 8200 Dollar pro gespeichertes TB. (jm)

Big Data Award 2012

Die COMPUTERWOCHE sucht gemeinsam mit einer aus Topexperten zusammengesetzten Jury die besten Big-Data-Projekte.

Für den Award "Big Data 2012" können sich Teams aus Anbietern und Kunden bewerben. Preise werden am 26. September 2012 in den Kategorien "Managing Data" und "Analyzing Data" verliehen.

Außerdem gibt es Publikumspreise für die besten Projekte und die innovativsten Technologien.

Weitere Informationen finden Sie unter www.bigdata12.de.

Scale-out oder Scale-up, das ist hier die Frage

Was bringen Scale-up- und was Scale-out-NAS-Architekturen?

Vorteile von Scale-up-NAS:

+ Zunächst einfacher zu installieren und zu verwalten;

+ meist bessere Software- und Datenschutzfunktionen.

Nachteile von Scale-up-NAS:

- Beschränkte Erweiterungsmöglichkeit;

- oft werden viele einzelne NAS-Boxen beschafft.

Vorteile von Scale-out-NAS:

+ Bessere Skalierbarkeit;

+ Kapazität und Leistung skalieren unabhängig;

+ Global Namespace für einfache Verwaltung.

Nachteile von Scale-out-NAS:

- Teuer;

- meist weniger Funktionalität.

Die besten Scale-out-Speicher

Laut dem "2011 Enterprise Scale-out Storage Buyer`s Guide" von DCIG

(http://w.idg.de/H8jvhG) überzeugen diese Scale-out-Speicher am meisten:

1. HP X90000 IBRIX Storage System,

2. EMC Isilon IQ NL-Series,

3. EMC Isilon IQ X-Series,

4. BlueArc Titan 3200 Series,

5. Netapp FAS6200,

6. EMC Isilon IQ S-Series,

7. IBM Sonas,

8. Netapp FAS3200 Series,

9. BlueArc Mecury 110,

10. BlueArc Mecury 55.

Quelle: DCIG