Die wichtigsten Trends für 2011

Die Zukunft der Virtualisierung

25.05.2011
Von 
Andrej Radonic ist Experte für Virtualisierung, Cloud-Technologien und Open Source Anwendungen. Der Fachbuchautor ist Vorstand der interSales AG und entwickelt für mittelständische Unternehmen anspruchsvolle E-Commerce Lösungen.

These 2: Ein Hypervisor macht noch keine moderne IT-Umgebung

Stellt sich die Frage, warum die Erneuerung der IT bislang stecken geblieben ist. Das Angebot ist da, es reicht von umfassenden Lösungen bis hin zu kostenlosen Produkten und Open-Source-Projekten. Sie erlauben es, eine stabile und zuverlässige virtualisierte Umgebung aufzubauen. Die Erkenntnis setzt sich durch, dass Technik - also der Hypervisor - allein noch keine Revolution im Rechenzentrum bewirken und quasi im Vorbeigehen Kosten sparen kann.

Hypervisor

Im Server-Umfeld hat sich die Hypervisor-Technik vom Typ 1 durchgesetzt, bei der die Virtualisierungsschicht direkt oberhalb der Hardware ("bare metal") und nicht auf einem Betriebssystem läuft. Hypervisor vom Typ 2 laufen als Applikation im Betriebssystem und werden wegen ihrer geringeren Effizienz eher auf Endgeräten genutzt.

Chancen und Stolperfallen

Während die Abkoppelung der Server von der Hardware erhebliche Vereinfachungen und mehr Flexibilität mit sich bringt, steigen die Anforderungen an intelligentes Management und Automatisierung der neuen Umgebung. Außerdem ergeben sich neue Hindernisse, was dazu führt, dass viele Projekte in der Evaluationsphase stecken bleiben oder Virtualisierung eher in Test- und Laborszenarien eingesetzt wird:

• Die Leichtigkeit, mit der Server in virtuelle Maschinen verlagert werden, lässt den Administrationsaufwand steigen, weil plötzlich viel mehr (virtuelle) Server vorhanden sind.

• Das Management virtueller Umgebungen stellt geänderte Ansprüche. Neue Möglichkeiten wie flexibles Provisionierung, Bereithaltung von Images, Migration von VMs von einem Rechner zum anderen erfordern entsprechende Werkzeuge und neue Policies, mit denen die Kontrolle über das Gesamtsystem gewährleistet werden kann.

• Je nach Applikationen, Betriebssystemen und Hypervisor-Hersteller können Lizenzkosten die Kosten treiben. In jedem Falle sollten im Vorfeld entsprechende Kalkulationen betrieben werden.

• Die Anforderungen an die Gesamtausstattung steigen: Virtualisierte Umgebungen fassen viele Server auf wenig Hardware zusammen. Dies impliziert, dass viele Server von einem Rechnerausfall betroffen sind. Damit steigen die Anforderungen an die Hochverfügbarkeit. Die Installation benötigt als Grundlage Shared Storage in Form eines SANs (Storage Area Network), meist auf Basis von Fibre Channel oder iSCSI-Techniken. Das SAN muss ebenfalls hochverfügbar ausgelegt sein.

• Während HA-Mechanismen (High Availability) die Betriebssicherheit insgesamt erhöhen, bietet die zusätzliche Hypervisor-Softwareschicht potenziell neue Angriffsflächen für Angriffe auf die System- und Datensicherheit.

Angesichts dieser Herausforderungen haben sich stufenweise betriebene, Virtualisierungsprojekte bewährt, in deren Rahmen zunächst Testsysteme sowie weniger geschäftskritische Systeme virtualisiert werden. Entscheidend ist der langfristige Auf- und Ausbau einer tragfähigen Management-Umgebung mit Hochverfügbarkeit und Automatisierung auf Basis von Shared Storage.

Zuverlässige Technik ist verfügbar

Die drei Marktführer VMware (ESX, ESXi), Citrix (XenServer), Microsoft (Hyper-V) bieten ein Lösungsportfolio mit einem hohen Reifegrad. Schon seit einigen Jahren geben die großen Hersteller dabei ihre Einsteigerprodukte kostenlos ab. Oberflächlich betrachtet wird der Einstieg in die Server-Virtualisierung damit äußerst kostengünstig. Anwender sollten jedoch die Einschränkungen kennen und die Folgekosten einkalkulieren.

Vor allem VMware und Microsoft positionieren ihre kostenfreien Produkte explizit als Lösungen für Standalone-Server mit den Anwendungsschwerpunkten Testen von Server-Virtualisierung, Aufbau von Entwicklungs- und Testumgebungen und Betrieb weniger kritischer Workloads.

Alle Hersteller lassen sich ihre umfassenden Management-Tools, auf welche die IT in allen größeren Umgebungen zwingend angewiesen ist, immer gut bezahlen. Workload-Management, Server-Lifecycle-Administration, Failover, High Availability, Storage-Management usw. sind Aufgaben, die geeignete Tools benötigen. Dafür gibt es bei Bedarf auch leistungsfähige Werkzeuge von Drittanbietern, welche zum Teil auch Hypervisor-übergreifend arbeiten. Opensource-Produkte wie Xen (Hypervisor in Novell SUSE Enterprise Linux) oder KVM (Hypervisor in Red Hat Enterprise Linux) eröffnen weitere Optionen.