Virtualisierung erschwert Administration

Dipl. Inform. Johann Baumeister blickt auf über 25 Jahre Erfahrung im Bereich Softwareentwicklung sowie Rollout und Management von Softwaresystemen zurück und ist als Autor für zahlreiche IT-Publikationen tätig. Sie erreichen ihn unter jb@JB4IT.de
Die Virtualisierung von IT-Komponenten erfreut sich wachsender Beliebtheit. Allerdings entstehen dadurch neue Herausforderungen für das System-Management.
System-Management-Tools müssen auch in gemischten Umgebungen in der Lage sein, Patches fehlerfrei auf virtuelle oder reale Systeme einzuspielen.
System-Management-Tools müssen auch in gemischten Umgebungen in der Lage sein, Patches fehlerfrei auf virtuelle oder reale Systeme einzuspielen.

Unter Virtualisierung versteht man in der Informatik die Nachbildung von nicht real existierenden Dingen. Mit Hilfe von Software wird dabei auf realen Systemen eine künstliche Umgebung geschaffen, die jedoch wie eine echte reagiert. Am bekanntesten sind in diesem Zusammenhang die Produkte des Herstellers VMware. Dessen Emulatoren "VMware Workstation", "GSX-" und "ESX-Server" bilden in der Software jeweils einen vollständigen x86-Rechner virtuell nach. Auf diesen wiederum lassen sich anschließend jegliche Softwares und Betriebssysteme installieren, die eine Hardware vom Typ x86 als Grundlage erwarten.

Fazit

Die Virtualisierung der IT ist ein spannendes Thema, das durch die Anbieter von Software-Tools weiter vorangetrieben wird. Gefördert wird sie auch durch die Verbreitung der Blade-Systeme. So rechnet IDC für das Jahr 2009 in Westeuropa mit 565000 verkauften Blade-Servern - das wäre ein Viertel des gesamten Server-Marktes in der Region.

Als Gründe für das starke Wachstum nennt IDC "den fundamentalen Umbau von Unternehmens-IT in Richtung dynamischer Konzepte". Das soll Anwendern mehr Flexibilität bringen. Es scheint, als führe an der Virtualisierung kein Weg vorbei. Anwender sollten, wenn sie sich für solche Systeme entscheiden, jedoch daran denken, dass diese auch verwaltet werden müssen. Besonders im Mischbetrieb mit virtuellen, aber auch realen Systemen können Probleme auftauchen Hier liegt noch einiges im Argen.

Hier lesen Sie …

• welche Vorteile Virtualisierungs-Tools bringen;

• welche Herausforderungen virtuelle Systeme für das System-Management bedeuten;

• welche Tools Hersteller dafür bieten;

• welche Probleme im laufenden Betrieb auftreten können.

Virtualisierung in der IT

Virtualisierung ist nicht auf x86-Rechner beschränkt und auch nicht neu:

• Mit VMS, MVS und VSE/ESA hatten DEC und IBM bereits vor Jahrzehnten virtuelle Konzepte in ihren Betriebssystemen implementiert.

• Erneuert hat IBM dies in aktuellen Betriebs- systemen wie etwa jenen der E-Server i5. Unter der LPAR - Logical Partition - werden auf der gleichen physischen Hardware bis zu zehn Gast-Betriebssysteme emuliert und parallel betrieben. Dies können neben dem eigenen i-Series-Betriebssystem und AIX auch Linux oder Windows sein.

• Virtuelle Konzepte finden sich auch in VPNs (Virtual Private Networks), VTAM (Virtual Tele- communications Access Method) zur Kom- munikation in Kontext der Systems Network Architecture (SNA) oder VSAM (Virtual Storage Access Method) zum Speicherzugriff. Auch DOS-Systemen könnte man mit Virtual Memory Manager mehr Arbeitsspeicher zukommen lassen.

• Cisco will durch Application Oriented Networking (AON) den eigenen Netzen mehr Funktionen für Daten der Layer 4 bis 7 einpflanzen. Dazu soll beispielsweise aus mehreren Blades ein virtueller Knoten aufgebaut werden, der sich nach außen wie ein einziges System verhalte. Intern übernehmen Load Balancer die Lastverteilung.

• Speicherhersteller bilden in der Speichervirtualisierung externe Massenspeicher wie Festplatten oder Partitionen nach.

• Ferner arbeitet Intel unter dem Codenamen "Vanderpool" und AMD unter dem Codenamen "Pacifica" an der Integration von Virtualisierungsfunktionen der in zukünftige CPUs. Diese zentralen Funktionen werden dadurch auf die Hardwareebene gezogen.

• Zur virtuellen Landschaft gehören auch die Server-Based-Computing-Produkte von Citrix. Zwar wird deren "Presentation Server" nicht als Virtualisierungs-Engine vermarktet, ist aber genau das. Er bildet durch eine zentrale Laufzeitumgebung Client-Systeme nach.

Von real zu virtuell

Migrations-Tools dienen der einmaligen Überführung einer physischen Umgebung in das virtuelle Pendant. Automatisieren lässt sich das mit Provisioning-Tools. Diese Toolkits vereinfachen die automatisierte Installation und Konfiguration von Server-Systemen. Meist setzen sie dabei auf vorbereitete Images, die bei Bedarf auf eine physische oder virtuelle Hardware ausgerollt werden. Die bekanntesten Anbieter in diesem Segment sind Arosoft mit "OMA", Enteo mit "OSD", Microsoft ("ASD"), SUN ("N1"), Veritas ("OpForce") und für Citrix-Systeme Visionapp.

Aus der Verknüpfung von virtuellen Systemen mit automatisiertem Provisioning der Server können leistungsstarke und flexible Cluster-Systeme entstehen. Für die Client-Seite hat VMware seit einigen Monaten sein "Assured Computing Environment" (ACE). Das Tool soll standardisierte PC-Umgebungen in Form virtueller Maschinen im gesamten Firmennetz unterstützen und damit den Einsatz von virtuellen Maschinen vereinfachen.

Vergleichbare Produkte liefert inzwischen auch Microsoft mit "Virtual Server" und "Virtual PC". Beide schaffen eine Laufzeitumgebung für virtuelle Betriebssysteme. Die physisch nicht vorhandenen Komponenten wie CPU, Hauptspeicher, I/O-Kanäle oder Netzwerkanbindungen werden durch die Emulatoren virtuell nachgebildet. Weitere Implementierungen für Betriebssysteme stellen die Produkte "Virtuozzo" von Swsoft, "Jails" unter FreeBSD oder das Open-Source-Projekt "Xen" dar.

Mehrarbeit im Vorfeld

Der größte Vorteil der Virtualisierung liegt in einer höheren Flexibilität der IT. Als unmittelbare Folge daraus ergibt sich eine bessere Ausnutzung der IT-Ressourcen durch die Konsolidierung von Servern. Dabei wird ein einzelner Server zum Träger mehrerer Betriebssysteme und Anwendungen. Doch das hat seinen Preis: Zwar lässt sich ein virtueller Server meist schneller und flexibler in Betrieb nehmen als ein "echter" Rechner. Dafür müssen Administratoren allerdings im Vorfeld einiges an Mehrarbeit leisten. Zusätzlich verkompliziert sich das System-Management, da bei allen nachfolgenden Systemarbeiten ständig zwischen virtuellen und realen Systemen unterschieden werden muss. Außerdem treten bei der Verwaltung der emulierten Systeme völlig neue Probleme auf, denen sich die Administratoren stellen müssen.

Um virtuelle Systeme in Betrieb nehmen zu können, bieten die Hersteller entsprechende Tools an. VMware hat mit dem "P2V Assistant" (Physical to Virtual) ein Werkzeug für eine vereinfachte Migration von physischen auf virtuelle Systeme im Portfolio. Das Microsoft-Pendant mit ähnlichem Funktionsumfang nennt sich "Virtual Server Migration Toolkit". Beide Werkzeuge helfen bei der Übertragung einer lauffähigen physischen Umgebung aus Betriebssystem, Applikationen und Konfigurationen auf ein neues virtuelles System.

Beide Tools unterstützen jedoch nur den Übergang von physischer zu virtueller Umgebung oder von virtuell zu virtuell; das Übertragen eines virtuellen Systems auf einen echten Rechner lassen sie außen vor. Dies wäre aber beispielsweise dann notwendig, wenn ein Unternehmen eine virtuelle Testumgebung in den tatsächlichen Produktionsbetrieb überführen möchte.

Auch Hewlett-Packard (HP) kann sich dem Trend zur Virtualisierung nicht verschließen. Der Hersteller bietet mit "Virtual Machine Management Pack" (VMM) eine Erweiterung des "Systems Insight Manager", die sowohl die Verwaltung von VMware-Systemen als auch des Microsoft Virtual Server auf "Proliant"-Servern ermöglicht. Dabei entfällt die Notwendigkeit für das kostenpflichtige "Virtual Center", die Verwaltungskonsole von VMware.

Das HP-Werkzeug ermöglicht die Kontrolle der virtuellen Systeme mit den gängigsten Funktionen wie Start, Stop, Pause oder Reset. Ferner liefert das Tool Performance-Werte über die Systemauslastung (Prozessor, Arbeitsspeicher, Plattenplatz und Ähnliches). Durch die tiefe Integration in den Insight Manager werden sowohl Informationen zu den virtuellen als auch den physischen Systemen geboten. Weitergehende Funktionen ermöglichen die Übertragung von virtuellen Maschinen auf die Host-Server-Ressourcen. Notwendig ist dies vor allem zur Lastverteilung im Load Balancing oder zur Verbesserung der Verfügbarkeit.

Steuerung per Script

VMware offeriert mit Virtual Center eine eigene Verwaltungskonsole, über die sich das System verwalten und konfigurieren lässt. Es bietet einen Benachrichtigungsmechanismus und erlaubt scriptgesteuertes Eingreifen zur Laufzeit, wozu die notwendigen Routinen jedoch selbst erstellt werden müssen. Eine Programmierschnittstelle ermöglicht das Einbinden von Management-Suiten. Verfügbar sei sie bereits für IBMs "Tivoli" oder CAs "Unicenter". Diese können dann auch aktiv in das Management der von der Virtual Console verwalteten Sessions eingreifen.

Microsoft offeriert mit dem "Solution Accelerator" ein Paket für das Patch-Management von Virtual-Server- und Virtual-PC-Umgebungen. Damit sollen Updates an mehrstufigen geschachtelten Systemen (ausgehend von der Anwendung über das Gast-Betriebssystem und schließlich Host-System bis zur Rechner-Firmware) vereinfacht werden. Ferner unterstützt SMS 2003 SP1 das Ausführen des erweiterten Clients auf dem Host-Betriebssystem und Computern mit Virtual PC oder Virtual Server. Auch der "Citrix Presentation Server" steht in der Verwaltung nicht separat und klinkt sich in den Microsoft Operations Manager (MOM) ein.

Die Administration

Der Einsatz von virtuellen Systemen und die automatisierte Inbetriebnahme stellt Administratoren vor neue Herausforderungen. Zwar ist die Verwaltung der virtuellen IT-Welt nicht per se schwieriger, sie weist jedoch bestimmte Eigenheiten auf und ist häufig nicht in die bestehenden Management-Werkzeuge integriert.

So erfordert etwa der Ausfall einer Netzwerkkarte in der realen IT-Welt einen völlig anderen Serviceprozess als der gleiche Vorfall (hervorgerufen etwa durch einen Softwarefehler oder das Einspielen eines Patches) in einer virtuellen Umgebung. Beim physischen Ausfall mag die defekte Karte etwa eine Warenentnahme oder einen Bestellvorgang anstoßen, ferner einen Auftrag für einen Servicetechniker, und bei teurer Hardware mögen die Aspekte der Finanzierung oder Abschreibung betroffen sein. Dies alles gilt so jedoch nicht beim virtuellen System. Auch die Akteure werden völlig andere sein. Statt einem Ersatzteillager und Techniker benötigt man einen VMware-Spezialisten. Hier sind die Anbieter der Virtualisierungs-Tools gefragt, die ihre Produkte anpassen müssen. Daneben müssen aber auch Unternehmen ihre Serviceprozesse modifizieren.

Erschwert wird die Situation durch die Vielschichtigkeit des Problems: Auf der untersten Ebene steht das Basis-Betriebssystem, das auch als Host-System bezeichnet wird. Die nächste Stufe ist die Virtualisierungs-Engine (der Virtual Machine Monitor) mit dem Gast-Betriebssystem. Dieses wird häufig als Image generiert und im Bedarfsfall als Instanz ausgeführt. Veränderungen, welche die Runtime-Version betreffen, sollten gegebenfalls auch im Basisimage vorgenommen werden, da sie sonst nach dem Löschen der Instanz verloren gehen.

Hersteller hinken nach

Leider können die meisten Produkte von Herstellern wie Altiris, BMC, Landesk, Microsoft oder IBM nicht zwischen virtuellen und physischen Systemen unterscheiden. Sie verwenden Agenten für die Verwaltung von Servern oder Clients. Diese laufen als Dienste im Kontext der Betriebssysteme und nehmen Aufträge von den zentralen Management-Konsolen entgegen oder liefern das Inventar zurück. Für Windows haben alle Hersteller diese Agenten im Angebot. Versionen für Linux, Netware oder Mac finden sich nur vereinzelt.

Auch aus einem anderen Grund ist Vorsicht angebracht: Liefert der Anbieter nur Agenten für das Gast-Betriebssystem, so lassen sich damit keine Maschinenparameter oder Werte der Host-Plattform ermitteln.

Prinzipiell ist es von Vorteil, wenn sich sowohl die Daten des Host-Systems als auch Informationen über das Gast-Betriebssystem ermitteln lassen. Handelt es sich dabei um eine aktuelle Windows-Version, kann der Agent notfalls manuell installiert werden. Daneben können in den jeweiligen Gästen ebenfalls Agenten operieren. Hierbei ist zu beachten, dass diese für die zentrale Verwaltungskonsole unabhängige Rechner darstellen. Agentenlose Systeme, die etwa über SNMP operieren, benötigen zwar keinen Client, aber dafür müssen die Systeme die Schnittstelle auch bedienen.

Virtuell oder nicht?

Das eigentliche Problem besteht darin, dass virtuelle Systeme gerade wegen ihrer Dynamik zu schnell für die bestehenden Konzepte und Werkzeuge sind und diese eben nicht zwischen real und virtuell unterscheiden können. Die derzeit verfügbaren System-Management-Lösungen weisen bis dato nur rudimentäre Funktionen zur Verwaltung virtueller Systeme auf. Im Wesentlichen bieten sie die Inventarisierung der Hard- und Software, Rollout mit Softwareverteilung, Patch-Management, Performance-Management mitsamt dem Monitoring von Server-System, Netzwerken oder Clients sowie den Support für Benutzerprobleme und Applikationen.

Die Virtualisierung verlangt an vielen Stellen Anpassungen. So erfordert beispielsweise ein inventarisiertes Server-System eine gesonderte Betrachtung, damit ein reduzierter Speicher nicht fälschlicherweise als Diebstahl oder Ausfall interpretiert wird. Zu klären sind ferner die rechtlichen Rahmenbedingungen, wenn Software zeitweise in virtuellen Systemen genutzt wird.

Daneben müssen aber auch die Verfahren bei der Software- oder der Patch-Verteilung angepasst werden. Für Laufzeitsysteme, die aus den Images von Betriebssystemen samt Applikation abgeleitet werden, wie es die Produkte von Microsoft und VMware machen, ist das nur bedingt sinnvoll. Hier gilt es genau festzulegen, ob das Quellimage oder dessen aktuell laufende Instanz zu patchen ist.

Vorsicht ist überdies angebracht, wenn neben den Gastsystemen auch das Host-System auf den neuesten Stand gebracht werden soll: Installiert ein Tool ein Update automatisiert auf dem Host, das anschließend einen Neustart des Servers erfordert, sind davon auch alle Gastsysteme betroffen.

Ähnlich verhält es sich mit den Werkzeugen, die ein Monitoring oder Tuning des Systems ermöglichen. Bei einer Analyse der Leistungswerte eines virtuellen Rechners ist immer zu bedenken, dass dieser seine CPU-Zeitscheiben, den Arbeitsspeicher und Plattenplatz vom Host-System erhält. Sollten hier Tuning-Maßnahmen notwendig werden, ist außer dem Gast- auch das Host-System anzupassen. Doch dafür liefern die Tools meist keine Schnittstellen. Diese Anpassung muss deshalb in jenen Werkzeugen geschehen, die mit den Virtualisierungs-Engines geliefert werden. (ave)