Ratgeber - Virtualisierung im Netz (Teil 3)

Standards für RZ-Virtualisierung stehen vor der Marktreife

07.02.2011 von Rochus Rademacher
Virtualisierung markiert den Ausbruch aus der traditionellen Siloarchitektur. Doch ohne roten Faden besteht die Gefahr, sich auf dem Weg zur virtualisierten Infrastruktur zu verlaufen. Vor allem das Zusammenspiel von Servern und Netz sollte evaluiert werden.
Vier Stufen zum virtuellen Data Center: Der Migrationspfad zum virtuellen RZ führt über vier Stufen.
Foto: IBM

Fast ein Drittel des weltweiten Server-Workloads wird dieses Jahr von virtuellen Maschinen gestemmt - 2012 tragen sie die Hälfte der Arbeitslast, prognostiziert Gartner-Analyst Tom Bittman. Der Trend erklärt sich leicht: Die Verlagerung mehrerer Anwendungen auf voll ausgelastete, konsolidierte Server reduziert Hardwareinvestitionen und Betriebskosten wie Strom, Kühlung und Standfläche.

Die Virtualisierung besorgt auch das schnelle Provisionieren von Systemen, was auf der Ebene der Fachlichkeit Priorität hat, wie Thomas Meyer, Infrastrukturexperte von IDC, betont: "Virtualisierung und Automatisierung sind die Voraussetzung für eine dynamische RZ-Infrastruktur, mit der Unternehmen auf geänderte Serviceanforderungen flexibel und effizient reagieren."

CW-Serie: Virtualisierung und die Folgen für das Netz

Virtualisierung ist derzeit eines der Trendthemen in der IT. Meist dreht es sich dabei um Speicher, Rechner oder gar Rechenzentren. Allzu oft wird aber vergessen, dass diese Virtualisierung direkte Auswirkungen auf die darunterliegende Infrastruktur, das Netz, hat. Auch im Netz selbst ist Virtualisierung ein Thema, denn sie senkt nicht nur Kosten, sondern eröffnet neue Wege in der Zusammenarbeit mit Partnern und Subunternehmen.

Fatalerweise treten aber Nebenwirkungen auf, die laut IDC mittelfristig den Effizienzgewinn der konsolidierten Ressourcen auffressen. Durch die Migration virtueller Maschinen (VM) zwischen den Servern in einem Rack lassen sich Kapazitätsengpässe dynamisch aufbrechen, die Auslastung unter Kostengesichtpunkten perfektionieren oder Ausfälle ausbügeln.

Eine internationale Befragung von 500 Anwendern durch IDC hat kürzlich ergeben, dass bei 78 Prozent der Antwortenden diese Mobilität schon zunimmt. Auf der anderen Seite erhöht aber diese muntere Kommunikation virtueller Maschinen kräftig die Komplexität. Zudem bremst das meist noch niedrigbandige Netz aus der Ein-Server-eine-Anwendung-Vergangenheit den Informationsaustausch.

Rolle der Management-Systeme

"Ein Management-System muss also virtuelle Server und Switches orchestrieren", erklärt Jochen Hoscheid, Leiter des Networking-Bereichs bei IBM Deutschland. "Es integriert Hypervisor- und Plattform-Management, um die virtuelle Instanz samt Netzwerk und den Konfigurationsanforderungen der Anwendung von einem Server auf den anderen zu verschieben." In der letzten Stufe der Virtualisierung suchen sich dann VMs ihre Verarbeitungskapazitäten über mehrere Rechenzentren hinweg. Damit erhöht sich der Aufwand beim Service-Management weiter, und das Networking wird durch WAN-Anforderungen komplizierter.

Engpässe durch die VM-VM-Kommunikation

Damit viele VMs einfach und schnell kommunizieren können, empfehlen sich zudem flache Netze. Das können zum Beispiel Layer-2-Netze ohne Spanning-Tree-Verfahren sein. Der Spannbaum-Algorithmus unterdrückt in geswitchten Umgebungen redundante Netzpfade. Durch die wachsenden virtuellen Rechenressourcen wird die Marktbedeutung von Layer-2-Netzen steigen.

Standards am Horizont

Im Jahr 2010 sollen die wesentlichen Standards für das Management virtualisierter Rechenzentren festgezurrt werden. Anwender sollten auf entsprechende Migrationspfade achten.

Beim Virtual Switching verdienen laut Jochen Hoscheid, DCN Plattform Sales Leader der IBM Deutschland GmbH, drei Konzepte Aufmerksamkeit, die beim Institute of Electrical and Electronics Engineers (IEEE) von der Arbeitsgruppe Higher Layer LAN Protocols zur Standardisierung vorbereitet werden. Unter dem Projektnamen IEEE P802.1 Qbg Edge Virtual Bridging (EVP, http://www.ieee802.org/1/files/public/docs2009/new-bg-thaler-par-1109.pdf) entsteht dabei eine Umgebung, in der in einer physischen Endstation mehrere virtuelle Endstationen für das LAN stecken.

  • VEPA: Die Virtual Ethernet Port Aggregation (VEPA) regelt die Kommunikation zwischen VMs in einem Server durch einen externen Switch. VEPA lädt also alle Switching-Aktivitäten von den Hypervisor-basierenden virtuellen Switches auf einen physischen ab - und beseitigt damit diverse Netzwerk- und Virtual-Switching-Komponenten sowie Overhead im Rechenzentrum. Die Virtual Ethernet Bridge (VEB), die eine 802.1-Bridge emuliert, sitzt auf dem Netzadapter, so dass die VM nicht mehr über den Soft-Switch und den I/O-Server mit dem Port kommuniziert, sondern direkt über den Hypervisor auf die VEB geht. Entsprechende Produkte sind zum Jahresende zu erwarten. Bei den Power-Systemen von IBM wird beispielsweise dann das Management des virtuellen Ethernet Bridging auf der Hardwarekarte mitgesteuert und verwaltet.

  • Multichannel: Durch Multichannel, eine Erweiterung der 802.1-Bridge, migriert mit einer VM auch ihre Policy: Jede virtuelle MAC-Adresse, wie sie bei VMs üblich sind, bekommt einen Tag. Damit lassen sich Servicequalitäten festzurren wie beispielsweise die Datenverkehrskontrolle. Mit vNIC Virtual Fabric existiert ein Vorläufer-Standard, getragen von IBM/BNT und Hewlett-Packard.

  • VSI: Über das Virtual Station Interface (VSI) schließlich migrieren Port-Profile (VLAN Identifier, Port-Zugriffs- und Verkehrskontrolle, Port-Sicherheit) dynamisch gemeinsam mit der VM. Produkte dürften wohl spätestens 2011 auf den Markt kommen. VSI ging als Konzept vom Gremium Automated Migration of a Port Profile (AMPP) aus.

Im Zuge der RZ-Virtualisierung müssen auch die Kommunikationswege harmonisiert werden.
Foto: IBM

Augenmerk sollte auch der LAN-SAN-Konvergenz auf IP-Basis gelten. Das erweiterte Ethernet-Protokoll bildet auch die Disziplin Fiber Channel für die Server-Speicher-Kommunikation ab. Ein so konsolidiertes Netz erleichtert Administration sowie Produktnutzung und spart Kabel ein. Am Ende spricht der Server-Bereich mit dem gesamten Storage-Pool. Dedizierte Speicher dürften auf Dauer nicht mehr gebraucht werden.

Diese Entwicklung hat auch Konsequenzen für das Management, da die Transformation durch eine gezielte Moderation der Server- und Speicherexperten getragen werden sollte. Deren Zusammenarbeit muss sicherstellen, dass Anwendungen in der Infrastruktur konsistent im Sinne der Prozesse behandelt werden. Beim technischen Management erweist sich eine manuelle Verwaltung der komplexen Umgebung als indiskutabel: Nur Automationsmechanismen steuern die Mobilität der VMs - eine integrierte Server- und Fabric-Management-Lösung weiß, welche Arbeit wo getan wird und wie sie sich am besten verteilen lässt. Ferner müssen Router, Firewalls, Load Balancer und virtuelle Switches kooperieren, um Sicherheit und Servicequalität zu gewährleisten.

Komponenten im dynamischen Data Center bedingen sich

Knackpunkt Netz: Bei der RZ-Virtualisierung lauern auf Grund der geänderten Datenströme mehrere Fallstricke im Netz.
Foto: IBM

"Wer sein Rechenzentrum aus der Silo- in eine Cloud-Konstruktion überführt, sollte eine Roadmap formulieren", warnt Netzexperte Hoscheid, "denn eine simple Checkliste mit Aufgaben wird der Komplexität und den individuellen Anforderungen schwer gerecht." Ein CIO, der einen roten Faden für das längerfristige Projekt spinnt, findet daran auch Halt, wenn neue Anforderungen auftauchen oder Diskussionen ausbrechen. Für den Aufbruch in das nächste IT-Infrastruktur-Ökosystem rät der IBM-Manager, zwei Grundsätze einzuhalten: Standards beachten und Respekt bewahren vor der Komplexität der Architektur.

Data Center per Software-Service kontrollieren

IBMs Virtualisierungsansatz basiert auf dem Gedanken der Software-Services. Die Kontrolle über das End-to-End-Rechenzentrum entsteht dabei durch das integrierte Management aller Komponenten, seien es Server, Speicher oder Switches. Im IBM-Portfolio leisten das der Systems Director und die Tivoli-Software. Der Systems Director verwaltet hierzu von einem zentralen Punkt aus unterschiedliche physische und virtualisierte Plattformen von x86 bis zum Mainframe sowie Speicher und Netz. Die Version 6.1 sei bereits verfügbar für IBM Power Systems unter AIX, im Jahresverlauf sollen dann auch x86- und Unix-Systeme jeglicher Provenienz bedient werden. Unterstützt werden, neben PowerVM und z/VM von IBM, VMware, Hyper-V und x86-Virtualisierungstechniken nach offenen Standards.

Die Virtualisierungsverwaltung schickt relevante Informationen weiter an das übergreifende Service-Management der IT-Factory. Die Kombination mit der Tivoli Service Management Platform zielt dabei auf bessere Services und Kostenreduzierung ab.

Neuerdings etabliert IBM für mittelgroße Firmen auch die auf Betriebskontinuität ausgerichtete Kontrolle von Rechenzentren als Dienstleistung: Mit den Cloud-basierenden Tivoli Live Monitoring Services können Unternehmen bis zu 500 Systemressourcen wie Betriebssysteme, virtualisierte Server, Middleware und Softwareanwendungen überwachen. Der Software as a Service ist gegen eine monatliche Gebühr abonnierbar und kommt ohne Bereitstellung von Hardware oder den Kauf von Softwarelizenzen aus.

Die strikte Standardausrichtung begünstigt heterogene Umgebungen und hält so Wahlmöglichkeiten offen. Gleichzeitig verhindert sie, dass man sich selbst in proprietären Lösungen einsperrt. Unternehmen, die eine solche Multivendor-Strategie konsequent verfolgen, können laut Gartner 30 Prozent der Kapitalkosten einsparen. Hinkt die Normierung hinter der Technikentwicklung her, gibt beispielsweise auch ein herstellereigenes Protokoll Sinn - Experten können über den Rückbau beraten, der aktuell wird, wenn die Standardisierung nachzieht.

Architektur und Strategie verlangen einen holistischen Ansatz: Die Anforderungen der Komponenten bedingen sich gegenseitig - Anwendungen, Server, Speicher und Fabric, also das Netz aus Leitungen, Routern und Switches, müssen austariert sein. "So stopft beispielsweise eine zusätzliche Sicherheitslösung auf einem Switch zwar ein Loch, drückt aber die Performance", verdeutlicht Hoscheid an einem Beispiel. "Also lohnt sich ein separates Security-Produkt auf einem skalierbaren Switch."

Mehr zu diesen themen finden Sie auch hier:
Virtualisierung im Netz(1) - Flexibel mit virtuellen Routern
Virtualisierung im Netz (2) - Netz-Know-how fürs Data Center
Virtualisierung im Netz (4) Unterwegs zur Unternehmens-Cloud