Web

Virtuelle Server begrenzen Rechnerwildwuchs

18.01.2001
Mit zwei neuen Server-Produkten will Vmware dem Einsatz von virtuellen PCs im professionellen Bereich zum Durchbruch verhelfen. Damit können ganze Server-Farmen künftig innerhalb von virtuellen Intel-Servern auf einer großen Maschine gehostet werden.

CW-Bericht von Wolfgang Miedl

MÜNCHEN (COMPUTERWOCHE) - Mit zwei neuen Server-Produkten will Vmware dem Einsatz von virtuellen PCs im professionellen Bereich zum Durchbruch verhelfen. Nach Angaben des Herstellers können ganze Server-Farmen zukünftig innerhalb von virtuellen Intel-Servern auf einer großen Maschine gehostet werden. Vmware und andere PC-Emulatoren haben sich bisher auf den Einsatz am Desktop beschränkt. Ob der Hersteller im Server-Bereich seinen bisherigen Erfolg wiederholen kann, ist allerdings fraglich.

Nach den Erfolgen, die Vmware seit 1999 mit der Desktop-Variante hat, erweitert der Hersteller nun sein Programm um zwei speziell auf den Server-Betrieb zugeschnittene Varianten "GSX" und "ESX". Unternehmen, Internet- und Application-Service-Provider (ISPs/ASPs) sollen damit in die Lage versetzt werden, auf einem realen Intel-Server eine große Zahl virtueller Server einzurichten. Die Linux-Version von GSX soll noch im Januar erscheinen, die für Windows NT/2000 im zweiten Quartal. Für ESX hat der Anbieter das erste Halbjahr angegeben. Nach der Vorstellung von Vmware sollen die neuen Produkte unter anderem Hostern die Möglichkeit bieten, ihren Kunden das jeweilige Wunsch-Betriebssystem zur Verfügung zu stellen, ohne für jede Maschine einen eigenständigen PC-Server abstellen zu müssen. Die Administration beschränkt sich somit auf eine oder wenige große Maschinen.

GSX setzt wie die bisherige Desktop-Variante 2.0 ein Host-Betriebssystem voraus, während ESX ein eigenes, kleines Kern-Betriebssystem mitbringt. Zu den bisherigen Konfigurations-Tools enthalten GSX- und ESX-Server eine Web-basierte Management-Konsole inklusive einer Perl-API für scriptgesteuerte Verwaltungsaufgaben. Eine eigene Fernwartungssoftware ermöglicht Administratoren den Zugriff auf virtuelle Systeme über ein Web-Interface oder die "Remote KVM Console". Damit erübrigen sich Fernwartungspakete von Drittanbietern, die für jeden virtuellen Server eine eigene Client-Applikation erfordern würden. Gleichzeitig ist damit ein so genannter Headless-Betrieb ohne Monitor oder Host-X-Server möglich. ESX enthält überdies einen SNMP-Agent.

Beide virtuelle Systeme können einem Gastsystem 64 GB Plattenkapazität bereitstellen. Der physikalische Server sollte über 264 MB bis 4 GB Hauptspeicher verfügen. Je nach Last empfiehlt Vmware maximal zwei bis vier Gastsysteme pro CPU. Der Preis für eine GSX-Lizenz beträgt 2500 Dollar, für ESX gibt es darüber noch keine Angaben.

Trotz aller Parallelen betont Vmware, dass man nicht das Partitionierungskonzept der Mainframes kopiere. Man ahme lediglich die Idee nach, mehrere Systeme auf einem Prozessor zu betreiben. Allerdings gehe es nicht mehr darum, teure und komplexe Hardware besser zu nutzen. Stattdessen sei heute aufgrund der Vielfalt der Betriebssysteme und Anwendungen die Software der Komplexitätsfaktor, den es zu vereinfachen gelte. Der in den letzten Jahren praktizierte breite Einsatz von Midrange-Maschinen, die auf ganz spezielle Zwecke zugeschnitten sind, habe zwar einerseits Kosten reduziert, der Preis dafür ist aber eine oftmals unüberschaubare Hardwarevielfalt.

Auch einige Analysten sehen in den neuen Vmware-Produkten einen technischen Fortschritt gegenüber herkömmlichen Partitionierungskonzepten. So stellt etwa Brad Day von der Giga Group im Vergleich mit einem von Sun eingesetzten Verfahren fest, dass sich virtuelle Server mit Vmware deutlich flexibler und granularer konfigurieren lassen. Während bei Sun für eine Neupartitionierung ein Shutdown erforderlich sei und das Symmetric-Multiprocessor-(SMP-)Setup mindestens vier CPUs pro Maschine vorschreibt, ermöglicht Vmware die Einrichtung der VM und Verteilung von Workload völlig entkoppelt vom darunter liegenden Betriebssystem und den CPUs.

Noch zu wenig Praxiserfahrung

Nach Einschätzung von Dave McCroy, Chief Technical Officer (CTO) des US-ASPs Protier, kommt Vmware ISPs entgegen, die eine große Anzahl von Web-Servern benötigen. "Ein Kunde kann dadurch auch ein Fünzigstel Server mieten, das völlig abgeschottet von anderen virtuellen Servern läuft. Wenn ein Kunde ein spezielles COM-Objekt in Verbindung mit dem ´Internet Information Server´ (IIS) einsetzt, braucht man keinen dedizierten Server mehr aufzusetzen", so McCroy.

Zuverlässige Aussagen über die Tauglichkeit der neuen Vmware-Produkte im unternehmenskritischen Einsatz lassen sich aber derzeit noch nicht machen. Auch wenn die Desktop-Produkte ihre Zuverlässigkeit und Leistungsfähigkeit bewiesen haben: Echte Hardware ist weiterhin in vielen Bereichen durch nichts zu ersetzen. Das zeigen einerseits die Performance-Einbußen, die sich für Anwendungen innerhalb eines virtuellen PCs ergeben, andererseits die Beschränkungen bei den unterstützten Hardwaregeräten von der virtuellen Maschine aus. Während auf einem Gigahertz-PC erwartungsgemäß auch innerhalb eines virtuellen Systems mehr als genug Systemressourcen für Office-Programme zur Verfügung stehen, könnten sich auf einem Multiuser-Server die Verlustleistung durch die Virtualisierung durchaus negativ bemerkbar machen.

Abgesehen davon steht auch über der Netzperformance ein großes Fragezeichen. Immerhin müssen sich bei großen Installationen mehrere Dutzend eigenständige virtuelle Server-Systeme das Netzwerksubsystem des physikalischen Host-Servers teilen. Bis dato ist Vmware daher zwar vom technologischen Standpunkt her ein Aufsehen erregendes Projekt, für den großangelegten Server-Einsatz sollten Interessenten aber die ersten Erfahrungen und Benchmarks von Pilotprojekten abwarten.

Eines hat das Unternehmen aus Palo Alto, Kalifornien, immerhin erreicht: Mit seinen bisherigen Desktop-Versionen von Vmware für Windows NT/2000 und Linux hat es PC-Emulatoren populär gemacht und bereits beachtliche Verkaufszahlen erzielt. Dabei ist die Idee nicht neu, eine Hardwareplattform in Form eines Software-Layers zu virtualisieren, um auf einer CPU nicht nur eine, sondern mehrere Instanzen eines Betriebssystems betreiben zu können. IBM hat ein derartiges Konzept bereits in frühen Mainframe-Jahren realisiert. Erfunden wurde die Partitionierung von Großrechnern in mehrere virtuelle Maschinen allerdings in erster Linie, um die teuren Anlagen profitabler zu nutzen.

Auch auf dem PC-Sektor hat die Virtualisierung von Hardware eine lange Geschichte. So setzen beispielsweise viele Mac-Anwender PC-Emulationen wie "Virtual PC" von Connectix ein, um Daten mit der omnipräsenten Intel-kompatiblen PC-Welt auszutauschen oder um Anwendungen zu betreiben, die im Unternehmen nur für Windows verfügbar sind. Berühmt war auch die aufwändige DOS-Emulation von OS/2, die es ermöglichte, ein nahezu originales Windows 3.x unter dem IBM-Betriebssystem zu fahren. Wie bei den meisten

Emulationen war auch hier das Hauptmotiv des Herstellers, den Anwendern eine Brücke zum neuen System anzubieten, mit dessen Hilfe sie die alten Anwendungen weiter benutzen können.

Einen Teil seines Erfolges mit den Versionen 1 und 2 verdankt sicher auch Vmware dieser Brückenfunktion. So setzten viele Linux-Anwender beispielsweise Vmware ein, um darauf Windows 9x oder Windows NT/2000 als Zweitsystem zu installieren. Anwendungen, die es noch nicht für Linux gibt, können auf dem Desktop eines Linux-Systems betrieben werden. In der Vergangenheit war für solche Szenarien in der Regel die wenig komfortable Installation des Zweitsystems auf einer eigenen Partition der Festplatte nötig ­ zum Wechsel auf das andere System ist dabei stets ein Neustart des Rechners erforderlich.

Vor allem Entwickler, Administratoren und Supportfachleute profitieren von dem in Software nachgebildeten PC. Sie können beliebig viele verschiedene x86-kompatible Gast-Betriebssysteme wie BSD, Netware, Be OS, OS/2 und andere auf einem Windows- oder Linux-Host-System installieren. Entwickler erhalten dadurch die Möglichkeit, ohne den Einsatz mehrerer PCs oder eines Multiboot-Systems mit mehreren Partitionen ihre Programme auf anderen Plattformen und Konfigurationen zu testen. Der virtuelle Rechner ist dabei völlig abgeschottet vom Wirtssystem, was ihn auch zum gefahrlosen Test von Viren brauchbar macht.

Vmware stellt neben den üblichen PC-Standard-Schnittstellen auch eine virtuelle Netzwerkkarte bereit, die mittels eines Treibers auf dem Host-System aus dem abgeschotteten virtuellen Rechner einen eigenständigen Netz-Client macht. Dieser erscheint im Netz neben seinem physikalischen Wirtsrechner als eigenständiger Client. Ohne eine Netzverbindung nach außen können verschiedene abgeschottete Vmware-Instanzen auch untereinander wie echte PCs über ihr virtuelles Netzwerk-Interface kommunizieren, was vor allem für Tests etwa von Web-Servern von großem Vorteil ist.

Üblicherweise wird bei der Installation von Betriebssystemen wie Windows auf einer Vmware-Maschine die Option der virtuellen Festplatte gewählt, die eine maximale Größe von 2 GB hat. Aus Sicht des Host-Systems finden Windows und seine Anwendungen so ihren Platz in einer Datei, die dynamisch bis auf eine maximale Größe von 2 GB anwächst. Der Vorteil dieses Verfahrens ist, dass solche virtuellen Maschinen geklont werden können. Ist das Gastsystem erst einmal konfiguriert, erzeugt der Anwender auf dem Wirtssystem einfach eine Kopie der Vmware-Datei. Diese Kopie kann dann auf beliebig viele Rechner verteilt und dort als Standardkonfiguration unter Vmware betrieben werden. Andererseits dient sie auch als Sicherheitskopie für den Fall, dass nach Tests die ursprüngliche Windows-Installation nicht mehr läuft.

Kritiker hat seine Bedenken aufgegeben

Kritiker haben in der Vergangenheit immer wieder den Sinn der Emulation von Hardware oder von Betriebssystemen in Frage gestellt ­ meist geht es dabei um die verringerte Rechenleistung oder den komplizierten parallelen Einsatz von unterschiedlichen Benutzerkonzepten bei den verschiedenen Betriebssystemen. Nicholas Petreley, Kolumnist der CW-Schwesterpublikationen "Infoworld" und "Linuxworld", stellte kürzlich den Kostenfaktor als Nachteil heraus: Den Preis von 300 Dollar für Vmware verglich er mit den Kosten für einen neuen PC, die in den USA weniger als 1000 Dollar betragen. Sein Fazit war, dass bei allem Respekt vor dem technischen Konzept von Vmware allein aus wirtschaftlichen Gründen kaum etwas für dessen Einsatz spricht.

Nach einer Flut von Leser-Mails hat Petreley seine Kritik inzwischen allerdings zurückgenommen. Ein Leser, der im IT-Support eines größeren Unternehmens arbeitet, führte beispielsweise als Vorteile von Vmware auf, dass er auch nach der teilweisen Migration auf Windows 2000 bei Anwenderanfragen in Sekundenschnelle auf ein originales Windows 95 zurückgreifen kann. Zudem könne er weiterhin einige Novell-Admin-Tools benützen, die unter Windows 2000 nicht mehr laufen.

Ein anderer Nutzer verwies auf die Vorteile für Entwickler. So könne er etwa beim Einsatz einer Entwicklungsumgebung wie dem "Jbuilder" von Borland inklusive Application-Server in den Windows- und Linux-Varianten eine Menge Zeit einsparen. Zum einen erübrige sich das ständige Booten der Systeme, zum anderen könne er sich das Neuformatieren von Partitionen sparen, da sich die vorkonfigurierten virtuellen Maschinen per Drag and Drop klonen ließen.

Virtuelle PCs und Emulatoren

Der PC-Emulator "Vmware" ist 1999 als bis dato umfassendste und ausgereifteste Softwarenachbildung der Intel-PC-Plattform am Markt erschienen. Doch das Produkt hat eine lange Vorgeschichte im Open-Source-Bereich und geht auf ein Projekt an der Stanford University zurück. Dort hatte der Wissenschaftler Mendel Rosenblum mit Studenten die ersten Ansätze in Form des "Hive"-Betriebssystems, des "Simos"-Emulators und des "Disco-Virtual-Machine-Managers" entwickelt. Heute ist Rosenblum einer der wichtigsten Manager von Vmware.

Offenbar existieren allerdings einige Ungereimtheiten um die Vorgeschichte der Software. So behauptete unlängst Kevin Lawton, Autor der mit Vmware verwandten x86-Emulation Bochs und Entwickler beim Freemware-Projekt, in einem Interview mit Linux.com, dass Vmware auf einer früheren Version von Bochs beruhe. Bochs habe schon lange vor Vmware existiert. Außerdem habe er vor langer Zeit eine Anfrage aus Stanford erhalten, ob man Bochs für schulische Zwecke verwenden dürfe, was er damals erlaubt habe. Freemware wurde mittlerweile in Plex86 umbenannt und ist ein in der Linux-Szene bekannter Open-Source-PC-Emulator (LGPL).

Eine weitere Möglichkeit, um Windows unter Linux zu betreiben ist "Win4lin". Es handelt sich dabei um keinen reinen PC-Emulator, man kann nur Windows 9x unter Linux installieren. Dafür soll die Performance von Windows-Anwendungen höher sein als unter Vmware.

Wenn es darum geht, lediglich Windows-Anwendungen unter einem anderen Betriebssystem zu betreiben, kommt ­ zumindest für versierte Anwender ­ "Wine" in Frage. Das Open-Source-Projekt, das vor allem allem unter Linux- und Unix-Anwendern bekannt ist, verfolgt seit Jahren das Ziel, Betriebssystem-Funktionen von Windows unter anderen Systemen wie Linux, BSD, Solaris, SCO Unixware, Be OS oder OS/2 bereitzustellen. Wine ist übrigens ein für die Unix-Welt typisches rekursives Akronym, das für "Wine is not an emulator" steht. In der Praxis heißt das, dass mit Wine weder eine PC-Hardwareumgebung emuliert wird noch ein komplettes Windows-Betriebssystem, sondern lediglich ein großer Teil der 16- und 32-Bit-APIs von Windows. Dadurch ist es möglich, Windows-Programme unter

einem Gast-Betriebssystem wie Linux völlig eigenständig zu installieren und zu starten, die Anwendungen laufen im üblichen Windows-Fenster auf dem Desktop.