Software Defined Storage reift heran

Praxistest: Storage-Architektur von Microsoft ersetzt SAN

02.02.2015
Von Michael Kallus

Schnelles Netzwerk - der Storage hält mit

Der Proof of Concept bestätigte die Ergebnisse des ersten Tests. "Die ganze Konstruktion läuft schon sauber. Mit Scale-out File-Server hatten wir keine Probleme und auch die 40-GBit-Technik lieferte überzeugende Performance-Raten, obwohl sie sehr neu ist", berichtet Büdenbender. "Wir benötigen momentan in unserem Rechenzentrum rund 20 Minuten, um einen Hyper-V-Knoten mit 40 virtuellen Maschinen von einem Host auf den anderen zu verschieben. Mit der neuen Technik reichten 1:13 Minute."

Das schnellste Netzwerk nutzt aber wenig, wenn das Storage-System nicht mithält. "Im Test stand dem Scale-out File-Server immer ein ausreichend schneller Speicher in Form der Storage Spaces zur Verfügung. Das liegt an den neuen Storage-Funktionen in Windows Server 2012 R2", ergänzt Büdenbender.

Die Funktion Tiered Storage beispielsweise analysiert regelmäßig die virtuellen Datenträger und verlagert oft genutzte Daten auf die SSDs, und Daten, die selten benutzt werden, auf die HDDs. Das geschieht standardmäßig nachts um ein Uhr per Task Scheduler. Somit stellen die HDDs ausreichend Speicherplatz zur Verfügung und die SSDs sorgen dafür, dass der Pool ausreichend Performance bekommt.

Der Building Block senkt die Komplexität

Mit dieser Architektur sinkt auch die Komplexität im Rechenzentrum, so Büdenbender: "Betreiben wir eine Virtualisierungseinheit als Building Block, müssen wir uns für die Bereitstellung weder mit den Netzwerk- und Firewall- noch mit den Storage-Kollegen abstimmen. Davon versprechen wir uns einiges."

Ein billiger Jakob ist diese Architektur allerdings noch nicht. In den JBODs stecken zwölf Server-SSDs, die für Schreibzugriffe optimiert sind. Allein eine SSD kostete 2500 Euro - mal 36 Stück. "Dennoch agieren wir mit der Microsoft-Technologie in einem ganz anderen Preissegment als mit unserem High-End-SAN. Wir erhalten hier sehr schnellen Storage zu günstigen Preisen und werden auch im Netzwerkbereich immens einsparen", resümiert Büdenbender. "Nach heutigem Stand kann man ab 500 virtuelle Maschinen über so eine Architektur nachdenken."

Ab 2015 bereit für den Einsatz

Zuvor muss Microsoft jedoch nach an einigen Punkten nachbessern, so Büdenbender: Bei den Storage Spaces gibt es noch Probleme, wenn einzelne Platten oder ein komplettes JBOD ausfallen. Diese Probleme sind Microsoft schon bekannt. Büdenbender rechnet damit, dass sie bis Ende des Jahres mit den nächsten Fix-Packs behoben sein werden.

Offene Punkte gibt es auch beim Monitoring. "Man muss sich noch überlegen, wie die ganze Konstruktion, also das Zusammenspiel von Hyper-V-Host, Switche, Scale-out File-Server bis hin zu den JBODs, sinnvoll zu überwachen ist", erörtert Büdenbender. Beispielsweise sind die Platten in den JBODs noch nicht 100-prozentig erfasst. Dell will hier in den kommenden Monaten ein Management-Pack für System Center Operations Manager liefern.

Foto: vege - Fotolia.com

Virtueller Storage für die Zukunft

"Wenn alles so gut weiterläuft, können wir wohl Anfang kommenden Jahres beginnen, das System produktiv einzusetzen", berichtet Büdenbender. Zunächst will er die Testsysteme umrüsten und dann nach und nach in die produktive Umgebung gehen.

"Das wird in jedem Fall eine unserer künftigen Storage-Technologien für die Virtualisierung werden", resümiert Büdenbender. "Ich bin sicher: Wenn wir von Virtualisierung sprechen, sprechen wir künftig auch von dem Scale-out File-Server und dem entsprechenden Storage dahinter." (cvi)