Der Markt für Virtualisierung

Mehr Effizienz durch Klonen

24.08.2009
Virtuelle Infrastrukturen bleiben auch in den nächsten Jahren ein spannendes Thema. Nach den Servern erobern sie nun Applikationen und Desktops.

Die Analysten von Pierre Audoin Consultants (PAC) äußerten sich zu Beginn dieses Jahres anlässlich der VMworld in Cannes überzeugt, dass virtuelle Infrastrukturen in europäischen Rechenzentrums-Architekturen zum festen Bestandteil großer Unternehmen geworden sind. Allerdings beobachten die Experten auch, dass sich die Verbreitung von Virtualisierungstechniken in den meisten Fällen auf unkritische Systeme beschränkt. Dennoch glaubt PAC fest daran, dass die Zahl der Virtualisierungsprojekte sowohl in dezentralen wie auch zentralen Infrastrukturen weiter zunehmen und damit einen Lichtblick in den gebeutelten europäischen Software- und IT-Services-Markt dieses Jahres bringen wird. Wie erfolgreich VMware seine marktführende Position gegenüber Microsoft und Citrix sowie deren gemeinsamen Aktivitäten ausbauen kann, wird sich erst in den kommenden zwei bis drei Jahren erweisen.

Allerdings zeigt PAC auch gleich die Grenzen auf: Die 100-Prozent-Virtualisierung, wie sie der VMware-CEO Paul Maritz rein technisch für möglich hält, bleibt Utopie. Außerdem entpuppe sich der vielbeschworene Markt für Desktop-Virtualisierung als ein viel schwierigeres Geschäft im Vergleich zur mittlerweile weit verbreiteten Server-Virtualisierung. Hinter den Arbeitsplätzen eines Unternehmens seien es die zahlreichen einzelnen Benutzer gewohnt, über Fat Clients relativ viel Freiheit zu genießen, weshalb hier deutlich mehr Überzeugungsarbeit erforderlich ist, als dies beim Server-Thema im "stillen Kämmerlein", sprich Rechenzentrum, nötig war.

Der Gesamtmarkt für x86-Virtualisierung 2008 (nach Region und Umsatz)

Hersteller

Umsatz in Millionen Dollar

Anteil der Region 2008 in Prozent

Wachstum 2008 gegenüber 2007 in Prozent

Westeuropa

503,8

28,3

43,4

Osteuropa

30,3

1,7

77,0

Mittlerer Osten und Afrika

33,9

1,9

173,8

Asien/Pazifik

204,6

11,5

51,8

Nordamerika

930,9

52,2

37,7

Japan

52,1

2,9

41,2

Lateinamerika

27,3

1,5

62,2

Insgesamt

1.782,9

100,0

43,2

Quelle: Gartner (Juli 2009)

Doch die Argumente liegen auf der Hand. Wenn die Grundvoraussetzungen stimmen, so PAC, können mit Hilfe von Virtualisierung im Idealfall bis zu 50 Prozent Kapital- und Betriebskosten eingespart werden, und das bei einer gleichzeitigen Erhöhung der Flexibilität, die vorhandenen IT-Ressourcen bestmöglich einsetzen zu können.

Die Bedeutung von Virtualisierung in ihren diversen Spielarten wird auch daran deutlich, dass die Analysten und Marktforscher von Gartner dem Thema inzwischen einen eigenen Hype Cycle widmen. Zahlreiche Virtualisierungsaspekte sind auf der zuletzt im Juli veröffentlichten Kurve aufgefädelt, die meisten davon befinden sich noch auf dem steilen Anstieg zwischen dem ersten Trigger bis zum Peak der überzogenen Erwartungen. Interessant dürften vor allem diejenigen Techniken sein, die schon einen vergleichsweise hohen Verbreitungsgrad haben.

Server-Virtualisierung

So etwa die Hypervisoren für x86-Server. Die Analysten schätzen, dass bereits zwölf Prozent aller Workloads von x86-Systemen innerhalb von virtuellen Maschinen auf Hypervisor-Produkten laufen. Über 90 Prozent der Fortune-500-Unternehmen würden in irgendeiner Form mit dieser Virtualisierungs-Variante arbeiten. Führender Anbieter in diesem Segment ist seit acht Jahren VMware mit ESX. Allerdings holt Microsoft mit dem 2008 veröffentlichten Hyper-V sehr schnell auf. Nennenswerte Anbieter, die Hypervisor-Produkte auf Xen-Basis im Portfolio haben, sind auch Citrix, Novell, Oracle, Red Hat und Sun Microsystems.

Gartner geht davon aus, dass die Hypervisor-gestützte Virtualisierung in den kommenden drei Jahren zum Standard für die meisten Server wird. Auch wenn die Produkte in der Regel kostenfrei in Lizenz genommen werden können, geben die Analysten die Unterschiede der Angebote bezüglich Funktionen und Reifegrad zu bedenken. Ferner sollte man beachten, dass sich eine Hypervisor-Virtualisierung oft nur über das einschlägige Management-Tool des Herstellers verwalten lässt, und das ist kostenpflichtig, sofern nicht auf Lowend-Werkzeuge zurückgegriffen wird. Wichtige Funktionen hier betreffen beispielsweise das Deployment und die Live-Migration von VMs, die Vermeidung von VM-Wildwuchs sowie das Handling sehr großer Zahlen von VMs.

Applikationsvirtualisierung

Als bislang deutlich weniger verbreitet, aber dennoch mit hohem Potenzial stuft Gartner die Applikationsvirtualisierung ein. Auf dem Hype Cycle stürzt diese Art der Virtualisierung gerade vom "Peak der übertriebenen Erwartungen" ab in das "Tal der Desillusionierung", wobei der Zeitraum bis zur allgemeinen Akzeptanz von den Experten auf zwei bis fünf Jahre angesetzt wird. Das wesentliche Ziel dieser Disziplin besteht darin, Anwendungen von ihrer Umgebung zu isolieren, so dass Konflikte mit anderen Programmen oder dem Betriebssystem vermieden werden. Dadurch soll sich das System-Management vereinfachen und die Sicherheit verbessern. Der Unterschied zur Desktop- und Server-Virtualisierung besteht darin, dass nicht die Hardware virtualisiert, sondern eine Abstraktionsschicht zwischen einzelnen Anwendungen und Betriebssystem eingezogen wird. Im Gegensatz zum klassischen Desktop entfällt die Installation von Programmen.

Viele Hersteller, die im Bereich PC-Configuration-Management unterwegs sind, haben sich inzwischen auch mit Tools zur Applikationsvirtualisierung gerüstet. Kleinere Anbieter wie InstallFree, Endeavors Technologies und Xenocode sind hinzugekommen, andere wurden übernommen, so etwa Thinstall von VMware und Altiris/SVS von Symantec. Bei allen Lösungen läuft die Anwendung in einer vom Betriebssystem abgeschotteten Umgebung. Sie regelt den Zugriff auf externe Objekte und gaukelt der Software Systemressourcen wie die Registrierdatenbank oder das Dateisystem vor. Versucht die Applikation etwa in ein gesperrtes Verzeichnis zu schreiben, wird der Zugriff entweder blockiert oder für die Anwendung transparent in die virtuelle Umgebung umgelenkt. Physisch befindet sich die virtuelle Anwendung in einem Verzeichnis, das sich meist in der Konfiguration einstellen lässt. Wird die Virtualisierungsschicht deaktiviert, verschwinden die darin ablaufende Anwendung und alle von ihr vermeintlich am System vorgenommenen Änderungen.

Die Entwicklung dieses vergleichsweise jungen Marktsegments dürfte, wie so oft, stark vom Verhalten Microsofts abhängen. Seit der Übernahme der Firma Softricity im Sommer 2006 haben die Redmonder unter der Bezeichnung App-V eine Suite aus Softwarekomponenten zusammengestellt, die der Virtualisierung, dem Streaming und der zentralisierten Verteilung von Applikationen dient. Nun wird es darauf ankommen, ob und welche relevanten Module daraus mit dem Betriebssystem gebündelt oder in Lösungen des System-Management-Portfolios einfließen werden.

Desktop-Virtualisierung

Eine ebenfalls junge Virtualisierungsgattung, deren Erfolg Gartner allerdings eher vorsichtig beurteilt, ist die Desktop-Virtualisierung – von den Analysten auch als Hosted Virtual Desktops bezeichnet. Es geht um die Verlagerung von Desktops (Thick Clients) in virtuelle Maschinen auf dem Server. Die Infrastruktur zur Bereitstellung der virtuellen Maschinen ist identisch mit jener der Server-Virtualisierung. Daneben benötigt man unter anderem Broker- und Session-Manager zur Verbindung der Benutzer mit ihrer Desktop-Instanz sowie Funktionen für Provisioning und Wartung. Der Vorteil liegt auf der Hand: Benutzerumgebungen aus Betriebssystem, Applikationen und Daten werden zentral gehalten und verwaltet, am Frontend reicht ein Thin-Client-Terminal. Der Reiz gegenüber dem Server-based Computing besteht darin, dass im Gegensatz zu diesem die Desktop-Virtualisierung kein signifikantes Reengineering auf Applikationsebene erfordert.

Dennoch rät Gartner, sofern Desktop-Virtualisierung für ein Unternehmen nicht zwingend sofort ansteht, mit der Einführung dieser Technik möglichst noch bis zum nächsten Jahr zu warten. Nachdem die Lizenzproblematik beispielsweise mit Microsofts Vista Enterprise Centralized Desktop weitgehend gelöst wurde, erwarten die Analysten nun deutliche technische Fortschritte. Aufgrund einer besseren Modularisierung der VM-Komponenten soll zum Beispiel dem Problem des hohen Speicherbedarfs entgegengewirkt werden. Auch beim Remote Access für mobile und offline arbeitende Anwender gibt es noch einiges zu tun.

Gartner warnt vor übertriebenen Erwartungen: Desktop-Virtualisierung werde zwar einige IT-Management-Probleme lösen, ein Allheilmittel für eine wartungsfreie Desktop-Landschaft sei sie aber nicht. In vielen Fällen werde sich die erwartete Senkung der Total Cost of Ownership nicht einstellen. So empfehlen die Analysten, sich auf Unternehmensbereiche mit überwiegend strukturierten Aufgaben zu konzentrieren, damit sich Desktop-Virtualisierung möglichst schnell amortisiert. Anbieter in diesem Segment sind neben VMware und Citrix die Firmen Microsoft, Red Hat und Sun/Oracle.

Open-Source-Lösungen

Schließlich lohnt sich noch ein Blick auf die Open-Source-Plattformen zur Virtualisierung, so etwa Xen, OKL4, OpenVZ, KVM und rHype. Ihre Verbreitung ist vergleichsweise gering, was weniger am mangelnden Interesse der Anwender liegt als an der Sorge um den unzureichenden Support seitens der Hersteller kommerzieller Betriebssysteme und Applikationen. Ihren Weg auf die Server finden Xen, KVM und OpenVZ deshalb meistens über ein Bundling im Rahmen kommerzieller Virtualisierungangebote. Xen zum Beispiel wurde von Citrix, Oracle, Sun, Red Hat und Novell adaptiert, KVM steht als Teil des Kernel-Projekts allen Linux-Distributionen zur Verfügung. Red Hat hat jetzt KVM in Red Hat Enterprise Linux integriert, wird Xen aber weiter unterstützen. Ferner wird erwartet, dass die Xen-Implementierung von Citrix ab 2010 zusammen mit Intels PC-Plattformen vPro und CentrinoPro angeboten wird.