Die Zukunft des Rechenzentrums

Software Defined Data Center – Hype oder Realität?

08.08.2013 von Hartmut  Wiehr
Einmal mehr pushen Hersteller und Analysten ein neues IT-Schlagwort: Das Software-Defined Data Center soll das angestaubte RZ-Konzept revolutionieren. Doch was steckt wirklich dahinter?

Unter dem Begriff "Software-Defined" propagieren Hersteller wie EMC und dessen Tochter VMware Produkte und Konzepte, die sich so zusammenfassen lassen: Virtualisierungs-Software soll den vier Säulen eines Rechenzentrums – Server, Speicher, Netzwerk und Security – neue Intelligenz einflössen. Im Prinzip möchte man den Erfolg von Server-Virtualisierung auf die anderen Bestandteile eines Rechenzentrums ausdehnen. Server-Virtualisierung mit virtuellen Maschinen (VMs) könnte man insofern genauso als "Software-Defined Server" bezeichnen. Die einzelnen VMs sind ein Stück Software, das dem Server-Betriebssystem einen unabhängigen Server vorgaukelt.

Der Vorteil einer in dieser Form durchgeführten Konsolidierung: mehr (virtuelle) Server auf einer einzigen (physikalischen) Maschine, weniger physikalische Server, weniger Platz im Rechenzentrum, eventuell weniger Energieverbrauch. Ob eine wirkliche Kosteneinsparung erzielt werden kann, bedarf einer genauen Kalkulation im Einzelfall: VMware verlangt üppige Software-Lizenzen (Hyper-V von Microsoft gibt es dagegen mit dem Windows-Betriebssystem zusammen umsonst), und für virtuelle Umgebungen, die nebeneinander die CPU beanspruchen, bedarf es leistungsfähiger neuer Server mit mehreren Cores oder CPUs.

Prognose 1
Konsolidierungsvorteile reichen nicht, um noch mehr Virtualisierung zu rechtfertigen. IT-Manager müssen erklären, wie Virtualisierung Anwendungen flexibler und sicherer mache.
Prognose 2
Ihre Virtualisierungsumgebung muss dynamisch sein, sonst verschwenden Sie Geld. Unternehmen sollten die zahlreichen Features nutzen, die das Hypervisor Resource Management inzwischen biete, rät Forrester.
Prognose 3
Disaster Recovery und Ausfallsicherheit treiben die meisten neuen Virtualisierungsprojekte. Das hat eine Forrester-Umfrage ergeben. Der Return on Investment (RoI) für Virtualisierungsvorhaben werde zunehmend durch eine verbesserte Ausfallsicherheit der IT-Infrastruktur bestimmt.
Prognose 4
Analytics-Funktionen machen konsolidierte Management-Tools für die Virtualisierung noch smarter. Das betrifft vor allem die Branchenschwergewichte VMware und Microsoft, die ihre umfangreichen Suiten vereinfacht haben. Unternehmen können Analytics-Features nutzen, um mehr aus ihren virtualisierten Umgebungen herauszuholen.
Prognose 4
Analytics-Funktionen machen konsolidierte Management-Tools für die Virtualisierung noch smarter. Das betrifft vor allem die Branchenschwergewichte VMware und Microsoft, die ihre umfangreichen Suiten vereinfacht haben. Unternehmen können Analytics-Features nutzen, um mehr aus ihren virtualisierten Umgebungen herauszuholen.
Prognose 5
Die Anwendung sollte die beste Virtualisierungsplattform diktieren, nicht umgekehrt, empfiehlt Forrester. Hinsichtlich der reinen Hypervisor-Technik könnten Unternehmen heute frei wählen und auch Open-Source-Alternativen ins Auge fassen. Entscheidend sollte aber nicht die Hypervisor-Technik sein, sondern die Betriebssysteme und Anwendungen, die in der virtualisierten Umgebung laufen.
Prognose 5
Die Anwendung sollte die beste Virtualisierungsplattform diktieren, nicht umgekehrt, empfiehlt Forrester. Hinsichtlich der reinen Hypervisor-Technik könnten Unternehmen heute frei wählen und auch Open-Source-Alternativen ins Auge fassen. Entscheidend sollte aber nicht die Hypervisor-Technik sein, sondern die Betriebssysteme und Anwendungen, die in der virtualisierten Umgebung laufen.
Prognose 6
Der Hypervisor-Preiskrieg setzt sich fort…. und geht doch an den Kundenbedürfnissen vorbei. Kunden bezahlten in Wirklichkeit nicht für den Hypervisor, sondern für den damit verbunden Management-Stack, konstatieren die Forrester- Experten.
Prognose 7
2013 wird das Jahr 1 des Software-defined Data Center. Das Konzept des Software-defined Data Center ist aus Sicht der Forrester-Experten der nächste logische Schritt hin zu hochautomatisierten und effizienten IT-Operationen.
Prognose 8
Das hybride Data Center wird populärer als reine Private oder Public Clouds. Anwenderunternehmen nutzen künftig eine Mischung aus virtualisierten lokalen Ressourcen (on-premises) und externen Workloads in der Cloud (off-premises).
Prognose 9
Ihr CFO fordert Kostentransparenz für virtuelle Umgebungen. Das obere Management Ihres Unternehmens wird sich 2013 viel stärker für die Kosten der virtualisierten IT interessieren, lautet die letzte Prognose der Forrester-Experten.

VMware-CEO Pat Gelsinger, im September letzten Jahres inthronisiert, um der EMC-Tochter als Fachmann für "Execution" neuen Schwung zu verleihen, begründet die aktuelle Stoßrichtung seines Unternehmens wie folgt: "Was würde passieren, wenn die gleichen Prinzipien, die einen einzelnen Layer des Rechenzentrums transformiert und den Kunden einen bisher nicht dagewesenen Wertzuwachs beschert haben, auf das gesamte Rechenzentrum angewendet werden?"

Theorie und Praxis des SDDC

Seit Jahren schon soll ein Großteil der an die 4.000 VMware-Entwickler damit beschäftigt sein, diesen Schritt von der Server-Virtualisierung in Richtung komplett virtualisiertes Rechenzentrum in neue Software zu gießen. Das Software-Defined Data Center (SDDC) bedeutet demnach: "Alle Infrastruktur ist virtualisiert und wird als Service geliefert. Die Kontrolle dieses Rechenzentrums geschieht vollständig automatisiert durch Software." Soweit die Theorie.

Die Praxis sieht anders aus: Bisher ist man allerseits kaum über die Ankündigungsphase hinausgekommen. Allenfalls kleine Schritte sind zu vernehmen, etwas mehr Virtualisierung hier, ein paar Ansätze für Cloud-Services dort. Dabei muss eines klar sein: Die Hardware-Basis der Rechenzentren wird auch in zukünftigen SDDCs bestehen bleiben, so wie ja auch virtuelle Maschinen (VMs) immer noch auf einem physikalischen Server aufsetzen. Zwar braucht es etwas weniger "Blech", dafür aber um so mehr an Performance und Verfügbarkeit, um die Ansprüche aller Applikationen und Tools ohne Latenz zu befriedigen.

Virtualisierung aller Säulen eines Rechenzentrums à la EMC = Software-Defined Datacentre.
Foto: EMC

Der Analyst Richard Fichera von Forrester Research geht davon aus, dass sich SDDC gleichzeitig in Richtung einer "Produkt-Kategorie" und eines zunächst unscharfen Trends entwickeln wird. Erste Produkte würden auf bestehenden Angeboten wie "Converged Infrastructure" sowie Cloud-Technologien und -Tools beruhen. Microsoft und VMware würden aber bald mit reinen Software-Lösungen herauskommen. Man dürfe deshalb, so Fichera, getrost davon ausgehen, dass zunächst einige Konfusion über genaue Features, Skalierbarkeit und Schnittstellen im SDDC-Umfeld herrschen werde.

Die SDN-Strategien führender Hersteller
Software Defined Networking (SDN) ist als heißes Thema für 2013 gesetzt. Nachdem wir in der vorigen COMPUTERWOCHE die Grundlagen beleuchtet haben, nehmen wir nun die Strategien führender Hersteller unter die Lupe.
Arista Networks
Die amerikanische Firma, die Ex-Sun-Chef Andreas von Bechtolsheim mitbegründet hat, setzt auf eine eigene SDN-Lösung auf Basis der Systemsoftware "EOS" und der Hochleistungs-Switches der Reihen "7050" und "7150". Die Switches arbeiten mit SDN-Controllern der Arista-Partnerfirmen VMware, Nebula und Big Switch zusammen. Die SDN-Strategie von Arista zielt derzeit vornehmlich auf Cloud-Computing-Umgebungen ab.
Big Switch Networks
Die amerikanische Firma hat eine eigene Version eines OpenFlow-Controllers entwickelt, der auf FloodLight basiert. Das Unternehmen arbeitet mittlerweile mit Netzwerkfirmen wie A10 Networks, Arista, Extreme Networks, Broadcom und Citrix zusammen. Im November stellte Big Switch drei SDN-Produkte vor: den "Big Network Controller" (BNC), "Big Tap", eine Network-Monitoring-Lösung, und den "Big Virtual Switch" (BVS). Big Tap und der BVS sind Beispiele für Anwendungen, die in einer SDN-Infrastruktur eingesetzt werden können.
Brocade
Das Unternehmen unterstützt bereits seit 2010 Software Defined Networking. Einen Schwerpunkt bilden die "NetIron"-Switches für den WAN- und Service-Provider-Markt. Im November 2012 übernahm Brocade zudem die Firma Vyatta. Sie hat einen Virtual Router entwickelt, der vorzugsweise zur Kopplung von virtualisierten oder physischen Netzdomänen eingesetzt wird, speziell in Cloud-Computing-Umgebungen.
Citrix
In diesem Jahr soll die nächste Generation des Application Delivery Controller (ADC) der Reihe "Netscaler SDX" verfügbar sein. Sie wird nach Angaben des Herstellers für SDN optimiert sein. Im Unterschied zu vielen anderen SDN-Spezialisten, die sich auf Layer 2 und 3 konzentrieren, favorisiert Citrix eine SDN-Lösung, mit der sich Layer 4 bis 7 steuern lassen. Als Partner hat Citrix Unternehmen wie Palo Alto, RSA, Trend Micro und Aruba Networks gewonnen.
Dell / Force10
Durch den Kauf von Force10 hat sich Dell einen Hersteller von Hochleistungs-Switches ins Haus geholt. Für Arpit Joshipura, ehemals bei Force10 und nun Chef von Dells Netzsparte, wird SDN allerdings erst in etwa drei bis fünf Jahren eine Rolle im Netzbereich spielen. Aber natürlich hat auch Dell eine SDN-Strategie: die "Virtual Network Architecture" (VNA) ist ein Framework, mit dem sich Netzdienste in Rechenzentren, dem Firmengelände und in Außenstellen virtualisieren, automatisieren und verwalten lassen.
Enterasys
Die Company setzt auf das hauseigene "OneFabric Control Center", das nicht auf neuen Protokollen wie OpenFlow basiert, sondern auf bereits etablierten Ansätzen wie VLANs und VRF/MPLS. Allerdings hält sich der Hersteller die Türe zu OpenFlow und vergleichbaren Spezifikationen offen.
Extreme Networks
Das Kernstück der SDN-Strategie des Switch-Herstellers ist das System "Diamond X8" mit der Systemsoftware XOS. Ähnlich wie Arista kooperiert Extreme mit Big Switch. Der Diamond X8 unterstützt Big Switch Network Tap und den Big Virtual Network Switch. Zudem arbeiten die Switches von Extreme Networks mit den SDN-Controllern von NEC zusammen.
IBM
Das Unternehmen will ebenso wie HP eine umfassende SDN-Produktlinie auf den Markt bringen. Ein erster Schritt ist der "Programmable Network Controller" auf Basis von OpenFlow, der für bis zu 300.000 Flows ausgelegt ist. Hinzu kommen Rack-Switches wie der "G8264". Was allerdings noch fehlt, ist ein Core-Switch mit OpenFlow-Unterstützung. Offen ist, ob IBM selbst ein solches System entwickelt oder als OEM-Produkt von einem andere Hersteller bezieht.
Juniper Networks
Im Juni 2012 veröffentlichte das Unternehmen seine SDN-Strategie. Die Schwerpunkte des Anbieters liegen auf Systemen für das Rechenzentrum und "Northbound"-APIs (Anwendungsschnittstellen). Das Software Development Kit (SDK) für Junipers Systemsoftware JunOS enthält zudem einen OpenFlow-Client. Im Lauf des Jahres will Juniper mit den Switches der "EX"-Reihe und den Routern der "MX"-Serie OpenFlow 1.3 unterstützen.
NEC
Das Unternehmen hat unter der Bezeichnung "NEC ProgrammableFlow" ebenso wie HP mehrere SDN-Produkte im Programm, etwa einen SDN-Controller sowie die Switches "PF 5240" und "5820", die für OpenFlow ausgelegt sind. Dazu kommt eine Management-Konsole. Geplant sind Applikatio-nen, mit denen sich Netzwerke auf Basis von SDN verwalten lassen.
VMware
Der Spezialist für Virtualisierung hat sich durch den Kauf von Nicira im Juli 2012 verstärkt. VMware selbst sieht sich als Protagonist des "Software Defined Data Center". Daher ist zu erwarten, dass der Hersteller Niciras SDN-Technologie nutzt, um in vCenter ein Management-Framework für virtualisierte und physische Netzsysteme zu integrieren.

Fichera erwartet ferner eine verstärkte Konkurrenz zwischen den Herstellern, die allesamt den neuen Infrastruktur-Markt beherrschen wollen. So habe Cisco mit seiner Erfahrung in puncto Netzwerk-Virtualisierung ("Software-Defined Network") teilweise die Nase vorn und könnte versucht sein, andere Hersteller auf diesem Gebiet auszugrenzen. Eine ähnliche Haltung könnte man auch vom Gespann EMC-VMware erwarten. VMware hat bereits letztes Jahr den SDN-Spezialisten Nicira übernommen. Damit bescherte VMware dem "Alliance"-Partner Cisco, der gemeinsam mit EMC und VMware das Joint Venture „VCE" gegründet hatte, direkte Konkurrenz. Seitdem wird immer wieder über die Zukunft von VCE und seinen Vblocks gemunkelt. Gemeint sind damit leistungsfähige Racks aus aufeinander abgestimmten Servern (hauptsächlich Cisco), Netzwerkelementen (Cisco), Speicher (EMC) und Virtualisierungslayer (VMware).

SDDC ist für Forrester die angemessene Antwort auf eine kaum noch beherrschbare Komplexität in den Rechenzentren und Generationen von Silo-Implementationen, unvollständigen Virtualisierungsanstrengungen und einem Wirrwarr von Management-Tools. In dem Maße aber, wie verfeinerte Virtualisierungs-Tools, SDNs und Converged-Infrastructure-Stacks Eingang in die Rechenzentren finden, eröffne sich die Chance, die Infrastruktur der Rechenzentren neu zu modellieren. Der Begriff "Software-Defined Data Center" (SDDC) vereint dann laut Forrester nichts weniger als alle Anstrengungen, "gewachsene" Legacy-Strukturen, Cloud Computing und neue I/O-Ansätze in eine gemeinsame Management-Ebene zu überführen.

Der lange Weg zur Virtualisierung

Folgt man dieser Forrester-Begriffsbestimmung, dann wird auch klar, dass SDDC keineswegs bedeutet, die alten Rechenzentren wegzuwerfen und durch neue auf Software-Basis zu ersetzen. Stattdessen geht es eher darum, neue Rahmenbedingungen und Tools zu finden, um das klassische Inventar von Rechenzentren auf neue Art zusammenzuhalten. Server bleiben Server, Festplatten bleiben Festplatten, Netzwerke dienen mit ihrer physischen Basis dem Datentransport und so weiter. Gelsinger hat es, wie zitiert, so beschrieben: "Alle Infrastruktur ist virtualisiert und wird als Service geliefert."

Auf der Storage-Ebene soll es zum Beispiel vermehrt darum gehen, Management-Funktionen von der Hardware zu entkoppeln, heterogene Speicherumgebungen in Pools zusammenzufassen und geographisch verteilt skalieren zu können. Im Idealfall hieße das, eigene Schnittstellen für die Arrays der Konkurrenz zu öffnen und den Weg zu Commodity-Produkten zu ebnen. Manche von diesen hehren Zielen schwirren schon seit einiger durch die Storage-Welt, an der Umsetzung hat es aber fast immer gehapert, weil kein Hersteller bereit war und ist, den eigenen proprietären Ansatz aufzugeben. Software-Defined Storage würde in der Konsequenz bedeuten, sich als Hersteller von der eigenen existierenden Storage-Technologie zu befreien – und sogar bereit zu sein, weniger eigene Hardware zu verkaufen.

So sieht das virtualisierte Rechenzentrum in den Augen von Forrester aus: Management und Service dominieren die physikalische Basis.
Foto: Forrester

Ob EMC, HP oder IBM dazu in der Zukunft bereit sein werden, ist durchaus anzuzweifeln. EMC immerhin hat jüngst mit "ViPR" einen neuen Vorstoß in Richtung offene Speicherinfrastruktur vorgenommen. Man entwickelt mit ViPR einen Software-Layer für Storage-Arrays, mit dem alle Speicherprodukte verschiedener Hersteller sowie Commodity-Produkte über offene APIs in eine gemeinsame Infrastruktur überführt werden könnten. Dies soll besonders für Unternehmen und Service Provider interessant sein, die an einer Cloud-Zukunft arbeiten und dabei ihre bestehenden Gerätschaften mitnehmen wollen. Bestehende Ansätze für virtuelle Storage-Pools, die es zum Beispiel von HDS oder IBM gibt, waren immer hersteller-zentriert und nicht generell offen. Lediglich von DataCore gibt es einen Software-Ansatz, mit dem Geräte unterschiedlicher Provenienz virtualisiert werden können.

Forrester-Mann Fichera spricht von einer lang anhaltenden Suche in der Welt der Computertechnologie, die Abstraktion von den tiefer liegenden Ressourcen in den Rechenzentren zu verbessern. Diese Ansätze seien zwar immer sehr mächtig gewesen, aber nie anwenderfreundlich und einfach zu nutzen. Als Beispiele für Abstraktionen nennt er die Entwicklung von rohen Maschinen- zu Assembly-Programmiersprachen oder von Datenverarbeitung vom Batch- zum Time-Sharing-Verfahren. Mit Virtualisierung – bereits üblich ab Ende der 60er bis Anfang der 70er Jahre in Mainframe- oder Unix-Umgebungen – gelang schließlich ein weiterer wichtiger Schritt in der Abstraktion von den physikalischen Ressourcen. Fichera schreibt: "Und ab Mitte der 70er Jahre verwandelten Multi-User-Betriebssysteme, Virtualisierung und erste Software-Defined Netzwerke den Computer in eine Umgebung, in der Programmierer mit durchschnittlichen Fähigkeiten und wenig Verständnis von der darunter liegenden Hardware effektive Anwendungen für Business-Probleme entwickeln konnten."

Eine gegenläufige Entwicklung diagnostiziert Fichera für die nachfolgenden Jahrzehnte. Der Komplexitätsgrad in den Rechenzentren hätte angetrieben durch billige x86-basierte Hardware, Ethernet und Internet und die explosionsartige Vermehrung verteilter Systeme enorm zugenommen und die frühen Produktivitätsverbesserungen durch erste Abstraktions-Layer wieder aufgezehrt. Das Resultat: Die Rechenzentren verharren auf einer Komplexitäts- und Investitionsstufe, die nur gelegentlich aufgebrochen wird.

Data Center: Konvergenz und Konkurrenz

Ab etwa 2001 hat sich – so der Forrester-Analyst – das Blatt wieder gewendet. Es gab erste Ansätze von "Converged Infrastructure", Gesamtlösungen aus virtuellen Servern, virtuellen Netzwerken und virtuellen Pools für Speicherressourcen. HP führte das "Utility Data Center" (UDC) ein, später folgten VMware, Cisco und EMC mit der VCE-Coalition und den Vblocks. IBM (mit PureSystems) und Oracle (mit Exadata und Exalogic) sind inzwischen ebenfalls mit ihren "Converged"-Varianten am Markt vertreten.

Unterschiedliche Herstelleransätze beherrschen das Feld von Converged Infrastructure und Software-Defined Datacentre.
Foto: Forrester

Bezogen auf die Speicherinfrastruktur finden sich erste Abstraktionsformen im Sinne von Fichera bereits in der Aufteilung von Storage-Arrays in RAIDs (Redundant Array of Independent Disks): Je nach RAID-Definition werden die Dateien oder Dateiblöcke in einem Array quer über sämtliche Festplatten verteilt, um bei einem Ausfall einer oder mehrerer Platten sofort eine Sicherungsversion zur Hand zu haben. In einem SAN (Storage Area Network) oder NAS (Network Attached Storage) macht man sich durch LUNs (Logical Unit Number) von der physikalischen Basis unabhängig: Alle Platten eines Arrays erscheinen als ein gemeinsamer Pool, der dann für unterschiedliche Applikationen und Dateien in logische Einheiten aufgeteilt wird. Dies funktioniert auch über mehrere zusammengekoppelte Arrays hinweg, wobei diese – zumindest theoretisch – sogar von verschiedenen Herstellern stammen können. In vielen Rechenzentren hat man aber auf solche komplexen Lösungen verzichtet und unterhält verschiedene Speichersilos parallel nebeneinander.

Wann es wirklich zu den ersten real existierenden "Software-Defined"-Rechenzentren kommt, ist aus heutiger Sicht schwer zu beurteilen. Für Unternehmen wird es jedenfalls neue interessante Virtualisierungs- und Automatisierungsangebote geben. Wie man das Kind dann am Ende nennt dürfte den meisten IT-Verantwortlichen herzlich egal sein.

Dieser Artikel basiert auf einem Beitrag der CW-Schwesterpublikation TecChannel. (mhr)