Virtualisierung fordert den Administrator

19.05.2006 von Dennis Zimmer
Die logische Aufteilung der Hardware gilt als Kostensenker. An anderer Stelle aber können Probleme entstehen - wenn man nicht Weitsicht walten lässt.

Server-Virtualisierung verbinden die meisten Interessierten in erster Linie mit möglichen Ersparnissen bei Hardware und Infrastruktur. Eine erfolgreiche und effiziente Virtualisierung kann aber mehr bringen: Es ließe sich damit auch die Administration vereinfachen und eine Entlastung der Systemverantwortlichen erreichen.

Hier lesen Sie ...

  • warum Virtualisierung nicht nur die Auslastung der Server erhöht, sondern auch die der Administratoren;

  • welche Qualifikationen für erfolgreiche Projekte erforderlich sind.

  • welche Faktoren bei der Planung einer virtuellen Umgebung in Betracht zu ziehen sind;

  • wie sich bestimmte Eigenschaften der Applikationen auswirken;

  • warum über die Server hinaus gedacht werden muss.

Dazu muss erst einmal klar werden, was Virtualisierung bedeutet und wie sie funktioniert: Sie entkoppelt Betriebssystem und Applikationen von der Hardware. Erreicht wird dies durch die logische Aufteilung der physikalischen Hardware für mehrere virtuelle Maschinen. x86-Virtualisierungstechniken gibt es momentan viele am Markt, wobei die bekanntesten kommerziellen Produkte von VMware und Microsoft (Emulationstechnik) kommen. Aus der Open-Source-Ecke ist vor allem das Produkt Xen (Paravirtualisierungstechnik) zu nennen.

Weil man durch Virtualisierung Hardware konsolidiert, erfolgt automatisch eine Leistungsverschiebung. Statt vieler kleiner oder mittlerer physikalischer Server werden wenige sehr gut ausgestattete Wirtssysteme benötigt. Auf dem Wirtssystem laufen je nach Ausstattung Dutzende virtueller Systeme (Gastsystem), die zuvor mehrere Server-Racks füllten. Das Gleiche passiert mit der Infrastruktur, welche nicht mehr auf viele, sondern auf wenige Systeme verteilt werden. Daher ist es auch keine Seltenheit, Wirtssysteme mit mehreren Fiber-Channel- und Netzwerkkarten anzutreffen.

Ein physikalisches System besteht grob aus vier Kernkomponenten (auch "Core Four" genannt): Prozessor, Hauptspeicher, Speicherplatz und Netzwerk. Hier macht ein virtuelles System keinen Unterschied, wodurch der Systemverwalter trotz Konsolidierung immer noch die Betreuung der vier Kernkomponenten aller genutzten Maschinen übernimmt, also des Wirtssystems plus aller Gastsysteme.

Virtualisierung erstreckt sich über vier Kernkomponenten. Daraus ergibt sich, dass Administratoren über ein breites Fachwissen verfügen sollten.

Allerdings verhält sich das Wirtssystem im Vergleich zu den Gastsystemen deutlich komplexer, weil der Wirt und die darauf laufende Virtualisierungssoftware die Leistung, die Flexibilität und die Verwaltung des Gesamtkonstrukts vorgeben. Außerdem genießen virtuelle Maschinen den Vorteil immer gleicher Hardware, während beim Wirt unterschiedliche Techniken zum Einsatz kommen können (Hyperthreading, Dual Core, Raid, DAS, SAN, NAS, iSCSI, Gigabit, Fast Ethernet etc.).

Und spätestens hier ist klar, dass Virtualisierung ein sehr breit gefächertes Wissen des Administrators erfordert, dass nicht auf das Wirtssystem beschränkt sein darf. Dabei muss die komplette Infrastruktur bedacht und gekonnt eingesetzt werden. Und das umfasst viel mehr, als es bei der Administration einzelner physikalischer Server-Systeme notwendig ist. Daher ist die konzeptionelle Arbeit unabdingbar und stetiger Begleiter des Systemverantwortlichen.

Dies beginnt bei der Ist-Aufnahme der vorhandenen physikalischen Systeme und der Überprüfung der jeweiligen Auslastung. Hier reicht ein kurzer Blick nicht aus, sondern die Maschinen müssen über einen längeren Zeitraum- und zwar über mindestens ein bis zwei Wochen - beobachtet werden. Sind besondere Applikationen in einer virtuellen Umgebung vorgesehen, beispielsweise die Lohnabrechnung, ist eine längere Zeitspanne in Betracht zu ziehen.

Hierbei müssen alle vier Kernkomponenten gecheckt werden; schon ein schwaches Glied in der Kette stellt ein potenzielles Problem in Bezug auf Virtualisierung dar. Zum Beispiel ist derzeit eine Vier-Wege-Maschine mit einer dauerhaften CPU-Auslastung von 80 Prozent kein geeigneter Virtualisierungskandidat. Durchschnittswerte bei der Systemauslastung greifen zu kurz, denn Applikationen wie Produktionssteuerungen oder Abrechnungssysteme für Löhne und Gehälter benötigen nur zu bestimmten Zeiten viel Leistung.

Manche Anwendungen machen einen speziellen Kopierschutz in Form von Hardware-Dongle oder Hardwareprüfsumme erforderlich. Je nach Form und Abfrage des Dongle-Kopierschutzes muss dieser zwingend lokal verbunden sein, wodurch eine Virtualisierung der Anwendung unmöglich wird. Ansonsten ist es möglich, serielle, parallele und USB-Hardware und damit auch Dongles mit bestimmten Geräten über das Netzwerk zugänglich zu machen.

Im Zuge der Applikationsprüfung kommt ein weiterer erschwerender Faktor hinzu: die Lizenzkosten. IBM oder Oracle lizenzieren ihre Produkte nach physikalischen Prozessoren, weshalb eine virtuelle Maschine auf einem Vier-Wege-System eine Vier-Prozessor-Lizenz benötigt, obwohl sie nur die Leistung einer CPU beansprucht. Durch die kommenden Prozessorgenerationen mit mehreren Rechenkernen gerät die Lizenzfrage künftig noch komplexer, da hier kaum explizierte Angaben seitens der Softwareanbieter existieren. In der virtuellen Welt hat man damit zu kämpfen, was genau lizenziert wird, der CPU-Sockel, der CPU-Kern oder die virtuelle CPU.

Während dieser Vorbereitungsphase sollten Anwender aufgrund der Komplexität bestimmter Server sich für eine Migration (Eins-zu-eins-Kopie in ein virtuelles System) oder eine Neuinstallation entscheiden. Zur Unterstützung der Migration gibt es eine Vielzahl an Programmen, so genannte P2V-Tools (physical-to-virtual), mit denen sich dieser Prozess deutlich vereinfachen lässt. Für die Neuinstallation spricht, dass man ungeliebte Programme oder Treiber mit einem Schlag hinter sich lässt und nicht in die virtuelle Welt mitschleppt.

Nach der Auswahl, welche Systeme in die Virtualität umziehen sollen und welche Peripherie eingesetzt wird (SAN, NAS etc.), muss ein geeignetes Virtualisierungsprodukt ausgewählt werden. Werden virtuelle Zwei-Wege-Maschinen mit Windows NT, Linux und Windows 2000 benötigt und eine ausgereifte Verwaltungsoberfläche gefordert, kommt man an "ESX Server" von VMware nicht vorbei. Existieren nur gleiche Gast-Betriebssysteme, können Virtualisierer wie SWsofts "Virtuozzo" (Windows 2003 oder Linux) und "Xen" (nur Linux) mit ähnlichen oder gleichen Geschwindigkeiten aufwarten, wobei Virtuozzo eine sehr gute Verwaltungsoberfläche besitzt, die Xen derzeit noch fehlt.

Verwaltungsoberflächen vereinfachen die Neuerstellung virtueller Maschinen immens, da sich damit per "Mausschubsen" nicht nur eine VM erstellen, sondern ganze Masseninstallationen nach einem bestimmten Muster vollautomatisch vornehmen lassen. Verzichtet man auf Verwaltungsprogramme wie "VMware Virtual Center" (für VMware ESX Server) oder die "Virtuozzo Management Console", muss die Automatisierung über Skripte realisiert werden.

Sämtliche Virtualisierungsanbieter offerieren eine schier grenzenlose Anzahl von Möglichkeiten zur Automatisierung mittels Programmierung beziehungsweise Skriptierung. Neben der automatischen Sicherung aktiver virtueller Maschinen jeglichen Betriebssystems und der automatischen Bereitstellung neuer Server lassen sich mit geringem Zeitaufwand auch Leistungs- und Nutzungsauswertungen realisieren. Grundvoraussetzung ist die Kenntnis entsprechender Skript- und Programmiersprachen.

Die Kombination aus Virtualisierungsprodukt und virtuellen Maschinen legt indirekt die Randdaten des oder der Wirtssysteme fest. Hier gilt es, den Blick in die Zukunft zu richten und nicht alle Ressourcen komplett zu verbrauchen. Anschaffung oder Vorhandensein von zentralem Speicher und Netzwerkinfrastruktur machen das Bild komplett.

Weitere Planungen sollten beispielsweise den schon erwähnten Dongles oder ISDN-Karten gelten. Sind diese nicht an die Hardware direkt gebunden, ist man je nach Virtualisierungsprodukt dazu gezwungen, auf Netzwerkgeräte auszuweichen (USB-over-Ethernet, Serial-over-Ethernet, ISDN-Router).

Wichtigster Faktor bei der Planung für ein erfolgreiches Virtualisieren ist die optimale Kombination, sprich das Zusammenspiel der einzelnen Komponenten. Sobald die bestellte Hardware und Software vorliegt, müssen alle Schritte von der Partitionierung bis hin zur Aufteilung der einzelnen Komponenten zwischen Verwaltungskonsole und virtuellen Maschinen vollzogen sein, um möglichst vielen Entscheidungen "aus dem Bauch" vorzubeugen.

Häufigste Fehlentscheidungen betreffen insbesondere die Partitionierung des Wirtssystems beziehungsweise der LUNs (Logical Unit Numbers; vom SCSI-Protokoll benutztes Zuordnungssystem für die Ansteuerung von Geräten) bei SAN-Einsatz. Wird hier zu wenig freier Plattenplatz eingeplant, kann unter Umständen ein Sicherungslauf nicht online geschehen, oder besondere Funktionen der Virtualisierung wie "Undoable" (Verwerfen aller Festplattenänderungen ab einem gewissen Zeitpunkt) lassen sich nicht nutzen.

Durch eine so geschaffene Backup/Restore-Problematik wird Disaster Recovery, also einer komplette Wiederherstellung eines defekten Systems, gegebenenfalls erschwert. Sämtliche Disaster-Recovery-Vorteile der virtuellen Infrastruktur, welche im Vergleich zur Physik stark erweitert sind, lassen sich nicht nutzen.

Beim Betrieb der virtuellen Maschinen werden trotz guter Planung immer unvorhersehbare Veränderungen auftreten, sei es eine neue Applikation oder die Aktualisierung von Software, die zu einer steigenden Leistungsanforderung an das Gesamtsystems führen. In solchen Fällen muss der Systemverwalter Leistungsengpässe eingrenzen, analysieren und beheben können. Hier ist die Suche im Gegensatz zu den meisten physikalischen Systemen nicht nur auf den einzelnen Server und dessen Betriebssystem beschränkt, sondern auf die komplette Bandbreite (Core Four) auszuweiten.

Das macht die Systemanalyse nicht unbedingt schwieriger, ganz im Gegenteil, denn die Virtualisierungstechnik stellt viel mehr Möglichkeiten und Funktionen bereit. Hinderlich ist eher, dass ein routinierter Administrator durch Virtualisierung mit einem anderen Denkansatz an seine Arbeit herangehen muss. Durch die Abtrennung von der physikalischen Hardware können der virtuellen Maschine (je nach Virtualisierungsprodukt) feinstufig Ressourcen zugeordnet sein. Oder Komponenten lassen sich zur Problemortung auf einem Wirtssystem isolieren. Während die meisten virtuellen Maschinen keinerlei Probleme mit der CPU-Aufteilung des Virtualisierungsprodukts haben, laufen andere deutlich performanter, wenn man ihnen eine bestimmte physikalische CPU des Wirtssystems fest zuweist.

Letztlich kann man einen Fehler im Virtualisierungsprodukt nie ausschließen. So kam es schon vor, dass eine Betriebssystem-Aktualisierung in Form eines Service-Packs deutliche Leistungsprobleme verursachte.

Da die Virtualisierungsprodukte immer mächtiger und umfassender werden, kommt der Systemverwalter nicht mehr um weitere Kenntnisse aus den Bereichen Netzwerk, Sicherheit und Hochverfügbarkeit herum. Mit VMware ESX ist es beispielsweise möglich, VLANs in den virtuellen Maschinen über "Port Groups" bereitzustellen, obwohl der Anschluss am Wirtssystem auf einem "Trunk Port" basiert. Somit liegt die Verantwortung, welcher Server in welchem VLAN verfügbar ist, nicht nur beim Netzwerk-, sondern auch beim "Virtualisierungsadministrator".

Auch die Sicherheit muss in virtuellen Umgebungen aufwändiger geplant werden. Es ist möglich, virtuelle Maschinen über das Wirtssystem oder innerhalb der virtuellen Maschine durch Sicherungsagenten und Programme zu sichern. Beides hat Vor- und Nachteile, und diesen muss auch durch Anpassungen am Wirtssystem Rechnung getragen werden, etwa durch gesonderte Netzwerkkarten speziell zur Sicherung. Imaging-Software wird durch die Möglichkeit der Offline-Sicherung als Ganzes über das Wirtssystem obsolet. (ls)

Fazit

Virtualisierung bietet große Vorteile gegenüber der Arbeit mit physikalischen Maschinen, allerdings ist ohne entsprechende Planung der Weg zur Sackgasse deutlich näher. Die häufigsten administrativen Probleme und Engpässe sind durch mangelndes Wissen um die Technik und daraus folgende Designfehler entstanden. Ohne ausgesprochen breite, Fachgebiete übergreifende IT-Kompetenz werden sie immer wieder auftreten. Erst wenn der Systemadministrator die neuen Möglichkeiten und Funktionen der Virtualisierungsprodukte versteht, wird er in der Lage sein, das Leistungsangebot dieser Infrastruktur optimal auszuschöpfen.