Ratgeber - Virtualisierung im Netz (Teil 3)

Standards für RZ-Virtualisierung stehen vor der Marktreife

07.02.2011
Von Rochus Rademacher

Komponenten im dynamischen Data Center bedingen sich

Knackpunkt Netz: Bei der RZ-Virtualisierung lauern auf Grund der geänderten Datenströme mehrere Fallstricke im Netz.
Knackpunkt Netz: Bei der RZ-Virtualisierung lauern auf Grund der geänderten Datenströme mehrere Fallstricke im Netz.
Foto: IBM

"Wer sein Rechenzentrum aus der Silo- in eine Cloud-Konstruktion überführt, sollte eine Roadmap formulieren", warnt Netzexperte Hoscheid, "denn eine simple Checkliste mit Aufgaben wird der Komplexität und den individuellen Anforderungen schwer gerecht." Ein CIO, der einen roten Faden für das längerfristige Projekt spinnt, findet daran auch Halt, wenn neue Anforderungen auftauchen oder Diskussionen ausbrechen. Für den Aufbruch in das nächste IT-Infrastruktur-Ökosystem rät der IBM-Manager, zwei Grundsätze einzuhalten: Standards beachten und Respekt bewahren vor der Komplexität der Architektur.

Data Center per Software-Service kontrollieren

IBMs Virtualisierungsansatz basiert auf dem Gedanken der Software-Services. Die Kontrolle über das End-to-End-Rechenzentrum entsteht dabei durch das integrierte Management aller Komponenten, seien es Server, Speicher oder Switches. Im IBM-Portfolio leisten das der Systems Director und die Tivoli-Software. Der Systems Director verwaltet hierzu von einem zentralen Punkt aus unterschiedliche physische und virtualisierte Plattformen von x86 bis zum Mainframe sowie Speicher und Netz. Die Version 6.1 sei bereits verfügbar für IBM Power Systems unter AIX, im Jahresverlauf sollen dann auch x86- und Unix-Systeme jeglicher Provenienz bedient werden. Unterstützt werden, neben PowerVM und z/VM von IBM, VMware, Hyper-V und x86-Virtualisierungstechniken nach offenen Standards.

Die Virtualisierungsverwaltung schickt relevante Informationen weiter an das übergreifende Service-Management der IT-Factory. Die Kombination mit der Tivoli Service Management Platform zielt dabei auf bessere Services und Kostenreduzierung ab.

Neuerdings etabliert IBM für mittelgroße Firmen auch die auf Betriebskontinuität ausgerichtete Kontrolle von Rechenzentren als Dienstleistung: Mit den Cloud-basierenden Tivoli Live Monitoring Services können Unternehmen bis zu 500 Systemressourcen wie Betriebssysteme, virtualisierte Server, Middleware und Softwareanwendungen überwachen. Der Software as a Service ist gegen eine monatliche Gebühr abonnierbar und kommt ohne Bereitstellung von Hardware oder den Kauf von Softwarelizenzen aus.

Die strikte Standardausrichtung begünstigt heterogene Umgebungen und hält so Wahlmöglichkeiten offen. Gleichzeitig verhindert sie, dass man sich selbst in proprietären Lösungen einsperrt. Unternehmen, die eine solche Multivendor-Strategie konsequent verfolgen, können laut Gartner 30 Prozent der Kapitalkosten einsparen. Hinkt die Normierung hinter der Technikentwicklung her, gibt beispielsweise auch ein herstellereigenes Protokoll Sinn - Experten können über den Rückbau beraten, der aktuell wird, wenn die Standardisierung nachzieht.

Architektur und Strategie verlangen einen holistischen Ansatz: Die Anforderungen der Komponenten bedingen sich gegenseitig - Anwendungen, Server, Speicher und Fabric, also das Netz aus Leitungen, Routern und Switches, müssen austariert sein. "So stopft beispielsweise eine zusätzliche Sicherheitslösung auf einem Switch zwar ein Loch, drückt aber die Performance", verdeutlicht Hoscheid an einem Beispiel. "Also lohnt sich ein separates Security-Produkt auf einem skalierbaren Switch."

Mehr zu diesen themen finden Sie auch hier:
Virtualisierung im Netz(1) - Flexibel mit virtuellen Routern
Virtualisierung im Netz (2) - Netz-Know-how fürs Data Center
Virtualisierung im Netz (4) Unterwegs zur Unternehmens-Cloud