Microsoft Hyper-V 2012 im Test

Hyper-V 2012 ist VMware vSphere dicht auf den Fersen

Andrej Radonic ist Experte für Virtualisierung, Cloud-Technologien und Open Source Anwendungen. Der Fachbuchautor ist Vorstand der interSales AG und entwickelt für mittelständische Unternehmen anspruchsvolle E-Commerce Lösungen.
Mit dem dritten Release des 2008 eingeführten Hypervisors Hyper-V mach Microsoft Boden gut gegenüber dem Erzrivalen VMware und dessen vSphere-Paket. Die aktuelle Hyper-V-Version macht Windows Server 2012 zur Cloud-Plattform.

Seit jeher sind die Release-Zyklen von Hyper-V an die Windows-Versionen gebunden, so dass Innovationen selten und dann in Schüben kommen. Mit Windows Server 2012, das Microsoft explizit als umfassende Plattform für die Private Cloud positioniert, gewinnt der Hypervisor an Bedeutung: Er ist der Motor für die Virtualisierung von Servern und Desktops auf Basis von Windows.

Um sich gegen den mächtigen Wettbewerb, allen voran VMware, behaupten zu können, hat Microsoft in die Erweiterung der Technik und die tiefere Integration von Hyper-V mit Betriebssystem, Infrastruktur- und Management-Lösungen investiert. In allen wichtigen Teilbereichen wurde Hyper-V stark aufgebohrt. Es bietet etwa verbesserte Live Migration Features, eine bessere Skalierung, höhere Flexibilität im Networking mit Netzwerkvirtualisierungs-Techniken, erweiterte Storage-Features sowie ein ganzes Paket von Neuerungen, die den Einsatz in Cloud-Umgebungen stark vereinfachen sollen.

Bislang ist es Microsoft nicht gelungen, VMware die Führung im Markt für x86-Server-Virtualisierung streitig zu machen. Das mit vier Jahren recht junge Produkt Hyper-V bot bislang vor allem mittelständischen Unternehmen eine gute Basis für den Einstieg in die Server-Virtualisierung, konnte sich jedoch in großen und größten Installationen nicht gegen VMware behaupten. So sieht der Magic Quadrant von Gartner Hyper-V auf Platz 2 am Markt hinter VMware positioniert. Aufgrund des neuen Releases und der Integration mit Windows Server 2012 beschleunige sich die Verfolgungsjagd aber aktuell.

Hyper-V - vollwertige Lösung für die Virtualisierung

Hyper-V Release 3 stellt sich den Herausforderungen großer Installationen, die oft unter der Bezeichnung Private Cloud firmieren und auf denen alle Arten von Anwendungen laufen, mit umfassenden Verbesserungen hinsichtlich Skalierung in Scale-up und Scale-out Szenarien. Die Leistungsdaten sind auf ein Niveau angehoben worden, das die Kapazitäten heutiger Server-Hardware weitaus besser ausschöpfen kann. Dies schlägt sich unter anderem in neuen Maximalwerten für virtuelle Ressourcen nieder:

  • bis zu 160 logische Prozessoren und 2 TB RAM pro Host

  • bis zu 64 virtuelle CPUs und 1 TB RAM pro virtueller Maschine

Der besseren Skalierbarkeit dient auch die Anhebung der maximalen Zahl an Knoten in einem Windows-Cluster von bisher 16 auf künftig 63. Ein solches voll ausgebautes Cluster kann bis zu 4000 VMs gleichzeitig ausführen.

Ressource

Hyper-V 2008 R2

Hyper-V 2012

Host

CPUs

64

320

RAM

1 TB

4 TB

Virtuelle CPUs pro Host

512

2048

VM

Virtuelle CPUs je VM

4

64

RAM je VM

64 GB

1 TB

Aktive VMs je Host

384

1024

Cluster

Max. Knoten

16

64

Max. VMs

1000

4000

Abbildung 1 [Grafik: Radonic/Microsoft]: Hyper-V hat ein kräftiges Leistungstuning erfahren

Live Migration mit Hyper-V 2012

Virtuelle Maschinen bei Bedarf (zum Beispiel für eine Wartung) oder automatisch (für das Loadbalancing) flexibel von einem Rechner zum anderen wandern zu lassen, gehört zu den Schlüsselfunktionen der sogenannten Live Migration. Erst diese Technik macht Server-Virtualisierung zu einem probaten Konzept für geschäftskritische Server. Bislang waren die technologischen Hürden hierfür sehr hoch. Das neue Hyper-V-Release hat die technischen Anforderungen nun deutlich herabgesetzt, um die Technik auch für kleinere Firmen erschwinglich und beherrschbar zu machen.

Live Migration bietet Hyper-V erst seit Windows Server 2008 R2, welches das dafür nötige Cluster Filesystem Cluster Shared Volumes (CSV) bereitstellte. Storage-seitig mussten hierfür ein SAN sowie ein Windows-Cluster vorhanden sein. Das neue Hyper-V-Release führt einfachere Alternativen ein. Dazu gehört zum einen, dass sich dank SMB 3 File-Server unter Windows Server 2012 als Shared Storage einsetzen lassen und dafür kein SAN mehr nötig ist. Außerdem entfällt der Zwang zum Einrichten eines Clusters, weil eine Migration von VMs auch zwischen einzelnen Hosts möglich ist.

Eine weitere Neuerung, von der primär kleine Installationen profitieren, ist die Möglichkeit, VMs komplett ohne Shared Storage zu migrieren. Diese Shared Nothing Live Migration funktioniert auf Basis von lokalen Festplatten. VMware etwa verfügt seit vSphere 5.1 über die Option Enhanced Vmotion, die die gleiche Funktionalität realisiert.

Bei der Live Migration holt Microsoft in Windows Server 2012 einiges nach, was VMware schon länger bietet. Dazu gehört die Option, mehrere VMs parallel zu migrieren. Zusätzlich lässt sich die Migration von bestimmten VMs mit einer höheren Priorität ausstatten. Das neue Hyper-V zieht mit der Einführung von Storage Live Migration auch in diesem Punkt mit VMware gleich.

Mit der VM-Replikation (Hyper-V Replica) implementiert Microsoft zudem ein Feature für Desaster Recovery: Dabei werden ausgewählte VMs auf einen anderen Host, der sich typischerweise in einer anderen Lokation befindet, übertragen. Dieser Transfer erfolgt auf Basis von Snapshots und stellt geringe technische Anforderungen (kein SAN erforderlich), so dass diese Technik auch von kleineren Firmen praktiziert werden kann.

Hyper-V 2012 Technik und Architektur

Der Kern von Hyper-V ist der Hypervisor - eine schlanke Abstraktionsschicht, welche direkt auf der Hardware läuft („bare metal virtualization“). Für die Steuerung sowie die Bereitstellung der Treiber ist das Parent-OS oder Root-Partition zuständig - eine schlanke Windows Server 2012-Betriebssysteminstallation mit allen benötigten Tools, welche vom Hypervisor während des Bootvorgangs gestartet wird. Die VMs oder Gastsysteme – von Microsoft auch Child Partitions genannt – werden von der privilegierten Root-Partition aus gesteuert und administriert. Die virtuellen Maschinen werden mittels des Integration Services-Softwarepaket für den virtuellen Betrieb optimiert. Der Kernel der VMs wird dabei geringfügig modifiziert, so dass Memory- und CPU-Funktionen direkt über die Hypercall API an die reelle Hardware weitergereicht werden. Festplatten- und Netzwerkzugriffe laufen dabei via VMBUS und das Root-OS und werden dort über die normalen Gerätetreiber an die Hardware durchgereicht.

Alternativ zu diesem Paravirtualisierungsmodus können die Gäste auch vollständig virtualisiert laufen, Hyper-V bedient sich dabei der Virtualisierungsunterstützung der CPU. Mit deren Hilfe lassen sich die Child Partitions somit auch unmodifiziert, aber mit gewissen Performance-Einbußen betreiben.

Netzwerk-Virtualisierung optimiert Cloud-Fähigkeiten und Hochverfügbarkeit

Cloud-Umgebungen stellen besondere Anforderungen an die sichere Ausgestaltung und das flexible Management der zugrunde liegenden Netzwerke. Die hierzu weit verbreitete VLAN-Technik greift gerade bei komplexen Setups mit mehreren Mandanten oder Kunden meist zu kurz.

Hyper-V auf Basis von Windows Server 2012 stellt eine Komponente für die flexible Netzwerk-Virtualisierung zur Verfügung, um bekannte Unzulänglichkeiten gerade bei VLANs auszumerzen: Beim Hyper-V-Switch handelt es sich um ein Funktionspaket, mit dem sich private, interne und externe Netzwerke konfigurieren lassen, die VMs mit anderen VMs, dem Host oder physikalischen Netzen verbinden. Diese Abstraktionsschicht hilft, virtuelle Workloads von internen IP-Adressen abzukoppeln, trennt Server- von Netzwerkadministration und ermöglicht die flexible Zuordnung von Workloads auf Servern.

Ein zentrales Feature des Hyper-V Networkings ist die so genannte Address Mobility, die dafür sorgt, dass die interne IP-Adresse einer VM auch dann beibehalten werden kann, wenn sie auf einen Host bei einem externen Cloud-Provider verschoben wird. Die neue Mandantenfähigkeit von Hyper-V garantiert dabei, dass keine Konflikte mit VMs anderer Kunden auftreten, die dieselbe IP-Adresse verwenden.

Bisher war der Funktionsumfang des virtuellen Switches unveränderlich festgelegt, in Hyper-V 3.0 dagegen lässt er sich durch Plugins erweitern. Dies ermöglicht Partnern, diese Netzwerkkomponente um zusätzliche Dienste zu erweitern, beispielsweise um Add-ons für das Monitoring oder für Sicherheit, etwa Firewalls oder Tools zur Abwehr von DoS-Attacken.

Das neue Hyper-V kümmert sich auch um die sehr entscheidende Netzwerk-Performance: Der Datendurchsatz wurde soweit verbessert, dass laut Microsoft Hyper-V-VMs bis zu 95 Prozent der Leistung der physischen Infrastruktur erreichen können. Mittels des neuen NIC-Teamings lassen sich mehrere Netzwerkverbindungen zusammenfassen, was Loadbalancing über mehrere Netzwerkkarten ermöglicht, sowie die Ausfallsicherheit erhöhen kann, zumal sich die Teams wahlweise auf VM- oder Host-Ebene einrichten lassen.

Microsoft hat brandneue Technologien in den neuen Hypervisor einfließen lassen. Dazu zählt Single Root I/O Virtualization. Diese Technik, die sowohl vom BIOS als auch vom Hypervisor unterstützt werden muss, lässt ein PCI-Gerät als multiple Instanzen seiner selbst erscheinen. Beispielsweise kann eine Gigabit-Netzwerkkarte damit als 256 virtuelle NICs erscheinen, von denen jede als separate Netzwerkverbindung nutzbar ist. Neben mehr Flexibilität werden so höhere Durchsatzraten erreicht.

Das Bundle aus Hyper- V und Windows 2012 sorgt mit der entsprechenden Konfiguration für komplette Redundanz über alle Schichten: von der redundanten Hardware-Auslegung innerhalb von Clustern in Verbindung mit Live Migration über IO-Redundanz mittels Loadbalancing und Multipathing auf Netzwerk- und Speicherebene über Application-/Service-Failover bis hin zur Out-of-the-Box Disaster Recovery Lösung mittels Hyper-V Replica.