Die Zukunft des Rechenzentrums

Software Defined Data Center – Hype oder Realität?

08.08.2013
Von Hartmut  Wiehr

SDDC ist für Forrester die angemessene Antwort auf eine kaum noch beherrschbare Komplexität in den Rechenzentren und Generationen von Silo-Implementationen, unvollständigen Virtualisierungsanstrengungen und einem Wirrwarr von Management-Tools. In dem Maße aber, wie verfeinerte Virtualisierungs-Tools, SDNs und Converged-Infrastructure-Stacks Eingang in die Rechenzentren finden, eröffne sich die Chance, die Infrastruktur der Rechenzentren neu zu modellieren. Der Begriff "Software-Defined Data Center" (SDDC) vereint dann laut Forrester nichts weniger als alle Anstrengungen, "gewachsene" Legacy-Strukturen, Cloud Computing und neue I/O-Ansätze in eine gemeinsame Management-Ebene zu überführen.

Der lange Weg zur Virtualisierung

Folgt man dieser Forrester-Begriffsbestimmung, dann wird auch klar, dass SDDC keineswegs bedeutet, die alten Rechenzentren wegzuwerfen und durch neue auf Software-Basis zu ersetzen. Stattdessen geht es eher darum, neue Rahmenbedingungen und Tools zu finden, um das klassische Inventar von Rechenzentren auf neue Art zusammenzuhalten. Server bleiben Server, Festplatten bleiben Festplatten, Netzwerke dienen mit ihrer physischen Basis dem Datentransport und so weiter. Gelsinger hat es, wie zitiert, so beschrieben: "Alle Infrastruktur ist virtualisiert und wird als Service geliefert."

Auf der Storage-Ebene soll es zum Beispiel vermehrt darum gehen, Management-Funktionen von der Hardware zu entkoppeln, heterogene Speicherumgebungen in Pools zusammenzufassen und geographisch verteilt skalieren zu können. Im Idealfall hieße das, eigene Schnittstellen für die Arrays der Konkurrenz zu öffnen und den Weg zu Commodity-Produkten zu ebnen. Manche von diesen hehren Zielen schwirren schon seit einiger durch die Storage-Welt, an der Umsetzung hat es aber fast immer gehapert, weil kein Hersteller bereit war und ist, den eigenen proprietären Ansatz aufzugeben. Software-Defined Storage würde in der Konsequenz bedeuten, sich als Hersteller von der eigenen existierenden Storage-Technologie zu befreien – und sogar bereit zu sein, weniger eigene Hardware zu verkaufen.

So sieht das virtualisierte Rechenzentrum in den Augen von Forrester aus: Management und Service dominieren die physikalische Basis.
So sieht das virtualisierte Rechenzentrum in den Augen von Forrester aus: Management und Service dominieren die physikalische Basis.
Foto: Forrester

Ob EMC, HP oder IBM dazu in der Zukunft bereit sein werden, ist durchaus anzuzweifeln. EMC immerhin hat jüngst mit "ViPR" einen neuen Vorstoß in Richtung offene Speicherinfrastruktur vorgenommen. Man entwickelt mit ViPR einen Software-Layer für Storage-Arrays, mit dem alle Speicherprodukte verschiedener Hersteller sowie Commodity-Produkte über offene APIs in eine gemeinsame Infrastruktur überführt werden könnten. Dies soll besonders für Unternehmen und Service Provider interessant sein, die an einer Cloud-Zukunft arbeiten und dabei ihre bestehenden Gerätschaften mitnehmen wollen. Bestehende Ansätze für virtuelle Storage-Pools, die es zum Beispiel von HDS oder IBM gibt, waren immer hersteller-zentriert und nicht generell offen. Lediglich von DataCore gibt es einen Software-Ansatz, mit dem Geräte unterschiedlicher Provenienz virtualisiert werden können.

Forrester-Mann Fichera spricht von einer lang anhaltenden Suche in der Welt der Computertechnologie, die Abstraktion von den tiefer liegenden Ressourcen in den Rechenzentren zu verbessern. Diese Ansätze seien zwar immer sehr mächtig gewesen, aber nie anwenderfreundlich und einfach zu nutzen. Als Beispiele für Abstraktionen nennt er die Entwicklung von rohen Maschinen- zu Assembly-Programmiersprachen oder von Datenverarbeitung vom Batch- zum Time-Sharing-Verfahren. Mit Virtualisierung – bereits üblich ab Ende der 60er bis Anfang der 70er Jahre in Mainframe- oder Unix-Umgebungen – gelang schließlich ein weiterer wichtiger Schritt in der Abstraktion von den physikalischen Ressourcen. Fichera schreibt: "Und ab Mitte der 70er Jahre verwandelten Multi-User-Betriebssysteme, Virtualisierung und erste Software-Defined Netzwerke den Computer in eine Umgebung, in der Programmierer mit durchschnittlichen Fähigkeiten und wenig Verständnis von der darunter liegenden Hardware effektive Anwendungen für Business-Probleme entwickeln konnten."

Eine gegenläufige Entwicklung diagnostiziert Fichera für die nachfolgenden Jahrzehnte. Der Komplexitätsgrad in den Rechenzentren hätte angetrieben durch billige x86-basierte Hardware, Ethernet und Internet und die explosionsartige Vermehrung verteilter Systeme enorm zugenommen und die frühen Produktivitätsverbesserungen durch erste Abstraktions-Layer wieder aufgezehrt. Das Resultat: Die Rechenzentren verharren auf einer Komplexitäts- und Investitionsstufe, die nur gelegentlich aufgebrochen wird.

Data Center: Konvergenz und Konkurrenz

Ab etwa 2001 hat sich – so der Forrester-Analyst – das Blatt wieder gewendet. Es gab erste Ansätze von "Converged Infrastructure", Gesamtlösungen aus virtuellen Servern, virtuellen Netzwerken und virtuellen Pools für Speicherressourcen. HP führte das "Utility Data Center" (UDC) ein, später folgten VMware, Cisco und EMC mit der VCE-Coalition und den Vblocks. IBM (mit PureSystems) und Oracle (mit Exadata und Exalogic) sind inzwischen ebenfalls mit ihren "Converged"-Varianten am Markt vertreten.

Unterschiedliche Herstelleransätze beherrschen das Feld von Converged Infrastructure und Software-Defined Datacentre.
Unterschiedliche Herstelleransätze beherrschen das Feld von Converged Infrastructure und Software-Defined Datacentre.
Foto: Forrester

Bezogen auf die Speicherinfrastruktur finden sich erste Abstraktionsformen im Sinne von Fichera bereits in der Aufteilung von Storage-Arrays in RAIDs (Redundant Array of Independent Disks): Je nach RAID-Definition werden die Dateien oder Dateiblöcke in einem Array quer über sämtliche Festplatten verteilt, um bei einem Ausfall einer oder mehrerer Platten sofort eine Sicherungsversion zur Hand zu haben. In einem SAN (Storage Area Network) oder NAS (Network Attached Storage) macht man sich durch LUNs (Logical Unit Number) von der physikalischen Basis unabhängig: Alle Platten eines Arrays erscheinen als ein gemeinsamer Pool, der dann für unterschiedliche Applikationen und Dateien in logische Einheiten aufgeteilt wird. Dies funktioniert auch über mehrere zusammengekoppelte Arrays hinweg, wobei diese – zumindest theoretisch – sogar von verschiedenen Herstellern stammen können. In vielen Rechenzentren hat man aber auf solche komplexen Lösungen verzichtet und unterhält verschiedene Speichersilos parallel nebeneinander.

Wann es wirklich zu den ersten real existierenden "Software-Defined"-Rechenzentren kommt, ist aus heutiger Sicht schwer zu beurteilen. Für Unternehmen wird es jedenfalls neue interessante Virtualisierungs- und Automatisierungsangebote geben. Wie man das Kind dann am Ende nennt dürfte den meisten IT-Verantwortlichen herzlich egal sein.

Dieser Artikel basiert auf einem Beitrag der CW-Schwesterpublikation TecChannel. (mhr)