Ratgeber

Wann lohnt sich Desktop-Virtualisierung?

02.02.2011 von Robert Sieber
Die Virtualisierung von Desktop-Systemen bringt nicht automatisch Kostenvorteile und eine einfachere Administration. Lesen Sie, worauf IT-Manager achten müssen.
Foto: Fotolia / pixeltrap

Mit dem Wechsel der Hardware am Arbeitsplatz, dem Auslauf des Windows-2000-Support oder der Notwendigkeit eines Updates auf Windows 7 eröffnen sich Unternehmen vielfältige Möglichkeiten zur Bereitstellung von Desktops und Anwendungen. Dazu gehört auch die Virtualisierung. Dabei fällt meist der Begriff virtueller Desktop. Die meisten IT-Verantwortlichen denken dabei an Virtual Desktop Infrastructure (VDI) - auf virtuellen Maschinen basierende Windows-XP- oder Windows-7-Computer. Allerdings gibt es virtuelle Desktops schon sehr viel länger: Citrix verkaufte etwa mit einem modifizierten Windows NT 3.51 das erste WinFrame und damit den ersten virtuellen Desktop unter Windows.

Die Möglichkeiten der Bereitstellung von Desktops und Anwendungen sind aber vielseitiger. Sie reichen vom klassischen Fat Client mit Softwareverteilung oder manueller Administration über Terminal Server und virtuelle Desktops bis hin zur Virtualisierung von Applikationen. Die Hersteller versprechen dabei eine einfache Administration und vor allem niedrigere IT-Kosten für den Betrieb. Es zeigt sich allerdings immer wieder, dass die Versprechen der Hersteller an den Gegebenheiten des eigenen Unternehmens überprüft werden müssen. Ansonsten besteht die Gefahr, die aktuellen Probleme der Desktop-Umgebung bei sogar höheren Kosten ins Data Center zu verlagern.

Planungshorizont fünf Jahre

Die Entscheidung für eine Bereitstellungstechnik von Anwendungen und Desktops sollten IT-Verantwortliche über einen Zeitraum von fünf Jahren betrachten und dabei und alle relevanten Aspekte einbeziehen:

  1. Ausgangsituation

  2. Anforderungen

  3. Investitionskosten

  4. Betriebskosten

  5. Schulungsaufwände

  6. Betriebsprozesse

Dreh- und Angelpunkt sind die funktionalen, technischen und nicht-funktionalen Anforderungen innerhalb des eigenen Unternehmens. Die Erfassung der Ist-Situation und die Definition des Soll-Zustandes bilden die Grundlage für einen Anforderungskatalog. Die einzelnen technischen Lösungen sind danach in Bezug auf den Erfüllungsgrad der Anforderungen zu bewerten. Es gilt eine Entscheidung zwischen dezentralem und zentralem Betrieb der Clientinfrastruktur zu treffen.

Terminal Server - Vor- und Nachteile

Der Inbegriff der zentralen IT-Bereitstellung sind Terminal Server. Handelte es sich zu Beginn des Computer-Zeitalters dabei vor allem um textbasierende Konsolen mit direkter Verbindung zum Server, ist dies heute eine Technologie, die den größten Teil der Anforderungen von Applikationen und Benutzern erfüllt. Terminal Server werden heute zum größten Teil mit Remote Desktop Services (RDS) von Microsoft, dem neuen Citrix XenApp 6 oder einem ihrer Vorgänger bereitgestellt.

Der große Vorteil liegt in der normalerweise sehr hohen Benutzerdichte auf einem Terminal Server. Das Betriebssystem wird nur einmal installiert und der Verbrauch des Hauptspeichers richtet sich nach der Anzahl der Benutzer und der von diesen benutzten Programmen. Spezielle Java-Applikationen sind jedoch so ressourcenintensiv, dass nur weniger als 10 Benutzer pro 32-Bit Instanz bedient werden können. Dem Testen der Anwendungen während einer Proof-of-Concept-Phase kommt nicht nur aus der Sicht des Ressourcenverbrauchs eine hohe Bedeutung zu, sondern auch wegen der Kompatibilität der Anwendungen. In der Regel wird versucht, so viele Anwendungen wie möglich direkt zu installieren. Dies hilft, die Komplexität der Umgebung gering zu halten und im Fehlerfall das Problem schneller zu isolieren. Anwendungen müssen in diesem Fall auf dem Server-Betriebssystem lauffähig, Terminal-Server-fähig, untereinander kompatibel und gegebenenfalls bei der Verwendung von Windows Server 2008 R2 oder. XenApp 6, auch 64-Bit fähig sein.

Daraus ergeben sich zwei wichtige Fragen:

  1. Wie wird eine Applikation bereitgestellt, die mindestens eine der Anforderungen nicht erfüllt?

  2. Und wie wird der Terminal Server an sich verwaltet?

Terminal-Server-Umgebungen werden heute in der Regel innerhalb einer Virtualisierungs-Farm bereitgestellt. Selbst die Mehrheit der neu installierten Server-Farmen sind heute noch 32-Bit Umgebungen, um die Kompatibilität der Anwendungen sicherzustellen. Mit Techniken zur Virtualisierung lassen sich die Auslastung der Hardware steigern und gleichzeitig Microsoft-Lizenzkosten optimieren. Des Weiteren können Unternehmen auf diese Weise eine einheitliche virtuelle Hardwareplattform als Grundlage der Bereitstellung der Terminal Server nutzen. Mit Hilfe der Citrix Provisioning Server oder der Double-Take-Flex-Technologie booten die Server aus einem goldenen Image direkt aus dem Netzwerk oder über eine iSCSI-SAN-Verbindung. Damit reduziert sich die Verwaltung auf eine geringe Zahl zentraler Vorlagen. Ferner werden das Change- und Release-Management effektiv unterstützt. Änderungen werden im goldenen Image vorgenommen und der Rollout erfolgt über einen Reboot der entsprechenden virtuellen Server. Somit lassen sich Updates und neue Anwendungen sehr gut und unkompliziert testen. Auch ein Rollback ist innerhalb kürzester Zeit, mit dem Booten vom vorhergehenden Image, möglich.

Die Grenzen der Terminal Server Technologie zeigen sich, wenn spezielle Hardware- oder Multimedianforderungen bestehen. Innerhalb einer geteilten Betriebssystemumgebung ist es allein aus Sicherheitsgründen nicht ganz unproblematisch, im laufenden Betrieb externe Datenträger zu mounten. Sind die Applikationen an den Arbeitsplätzen eines Unternehmens sehr unterschiedlich, so ist der Einsatz selten sinnvoll. Terminal Server eignen sich insbesondere dann, wenn der Standardisierungsgrad hoch ist.

Virtuelle Desktops

Individuelle Arbeitsumgebungen lassen sich mit virtuellen Desktops (VDI) wesentlich einfacher abbilden. Der Benutzer hat Zugriff auf "seine" virtuelle Maschine mit einem Client-Betriebssystem. Diese verhält sich in 99 Prozent der Fälle wie eine physikalische Maschine. Daher lassen sich in der Regel Szenarien abbilden, die mit Terminal Servern nicht realisierbar sind. Benutzern lassen sich bei Bedarf auch verschiedene virtuelle Maschinen und damit Betriebssysteme zur Verfügung stellen.

Ein hoher Grad an Individualität birgt die Gefahr, dass man die Probleme einer physikalischen Client-Welt eins zu eins in die virtuelle Umgebung verlagert. Die prognostizierten Einsparungen lassen sich auch hier nur realisieren, wenn eine hohe Standardisierung erreicht wird. Denn jede virtuelle Maschine ist zu 99 Prozent wie ein physikalischer Client: sie benötigt einen Virenschutz und Updates, Software muss verteilt und gewartet werden. Bleibt alles beim Alten, sinken die Kosten auf keinen Fall - im Gegenteil: Storage-Bedarf, Stromverbrauch von Servern und Storage sowie die Lizenzpolitik von Microsoft können sogar zu Kostensteigerungen führen.

Die Anschaffung des Speicherplatzes ist einer der größten Investitionskostenblöcke. Kommen individuelle VMs zum Einsatz, so wird für jeden virtuellen Computer der tatsächliche Speicherplatz benötigt. Bei einem Windows 7 sind es mindestens 22 GB. Einsparungen können auf zwei Wegen realisiert werden: Einsatz von Deduplizierungs-Technik in den verwendeten Storage-Systemen oder das Nutzen von Provisionierungs-Techniken von Herstellern wie VMware oder Citrix. Beide Anbieter stellen auf Basis eines goldenen Images die virtuellen Clients zur Verfügung und verbrauchen dadurch zur Laufzeit nur einen kleinen Teil des Speicherplatzes - typischerweise 5 GB im Gegensatz zu den typischen 22 GB eines Windows 7 ohne VMware View oder Citrix Provisioning Server.

Nicht zu unterschätzen ist dabei das Microsoft-Lizenzmodell Virtual Desktop Access Licence (VDA). Es beinhaltet das Recht von einem Endgerät auf bis zu vier virtuelle Instanzen von Windows 7 zuzugreifen. Die Lizenzgebühr beträgt 100 Dollar jährlich und ist als Volumenlizenzvertrag (Open oder Select) über drei Jahre zu erwerben. Wird auf dem zugreifenden Client ein Windows 7 unter aktiver Software Assurance verwendet, so entfällt die VDA Lizenz.

Die drei großen Virtualisierungsanbieter Citrix, Microsoft und VMware unterstützen heute nur virtuelle Clients unter Windows. Sollen auch Desktops mit Linux zur Verfügung gestellt werden, so muss ein Desktop Broker eines unabhängigen Herstellers wie Leostream oder Virtual Bridges zum Einsatz kommen. Genau wie Quest stellen diese Unternehmen ausschließlich das Herzstück der Desktop-Virtualisierung zur Verfügung. Die Virtualisierungsinfrastruktur muss separat beschafft werden. Diese alternativen Produkte bieten Mehrwerte insbesondere im Bereich der Security-Policies oder dem Zugriff innerhalb heterogener Umgebungen. Im Rahmen der Produktauswahl ist es auf jeden Fall sinnvoll, auch diese Hersteller in Betracht zu ziehen.

Client Hypervisor

Virtuelle Desktops im Sinne von VDI kommen in Deutschland noch nicht in Größenordnungen zum Einsatz. Das könnte sich im Laufe diesen Jahres ändern: Citrix und VMware werden dieses Jahr einen sogenannten Client Hypervisor auf den Markt bringen. Citrix hat seinen XenClient erst kürzlich auf der hauseigenen Konferenz Synergy angekündigt.

Dabei handelt es sich um eine Hardware-Abstraktionsschicht für Endgeräte - eine Entwicklung, die es mittelfristig erlauben wird, nicht nur die Rechenkapazität des Notebooks oder der Workstation bei gleichzeitiger zentraler Administration der Desktops zu nutzen, sondern auch die meisten Peripheriegeräte.

Citrix XenClient beispielsweise wird auf den unterstützen Endgeräten direkt installiert, ohne dass Benutzer ein Standardbetriebssystem benötigen. Danach kann der Anwender oder Administrator ein privates und ein dienstliches Image als virtuelle Maschine installieren. Der geschäftliche virtuelle Desktop wird dabei aus einer XenServer Umgebung auf den Client synchronisiert. Die beiden virtuellen Rechner sind voneinander isoliert - geschäftliche Anwendungen werden in das private Image eingeblendet und können genutzt werden. Dabei gibt es allerdings keinerlei Verbindung zwischen diesen Maschinen - ein beispielsweise im privaten Teil installierter Keylogger kann die Tastatureingaben in eine geschäftliche Applikation nicht mit loggen - der XenClient sorgt gleichermaßen für Trennung und Integration.

Bring your own Computer

BYOC - Bring your own Computer ist bei Citrix schon seit längerer Zeit ein wichtiges Schlagwort: Mitarbeiter kaufen Ihre eigenen Endgeräte und nutzen darüber sicher die Firmeninfrastruktur. Bisher zielte dies insbesondere auf XenApp und auch XenDesktop - mit XenClient kommt nun auch der Offline-Zugriff hinzu. Aufgrund der steuerlichen Randbedingungen in Deutschland wird BYOC sich wohl nie vollständig durchsetzen. Daher stellt sich die Frage ob der XenClient Ansatz für den hiesigen Markt tragfähig ist.

VMware geht seit VMware View 3.5 einen etwas anderen Weg. Der Administrator kann eine virtuelle Maschine zur Offline-Nutzung freigeben. Clients mit Windows XP können sich dann diese VM lokal kopieren und dann auch unterwegs nutzen. Änderungen werden, wie bei XenClient auch, in die virtuelle Umgebung synchronisiert - oder wahlweise lokale Änderungen verworfen. VMware realisiert das als Teil seines View Clients - noch ohne den Einsatz eines Client-Hypervisors. Mit der demnächst erscheinenden Version 4.5 von VMware View wird der Offline Mode auch offiziell unterstützt werden. Bisher war es ein sogenanntes experimentelles Feature. Es ist davon auszugehen, dass neben Windows XP dann auch Windows 7 unterstützt wird. Den eigenen Client Hypervisor - Client Virtualization Plattform (CVP) - wird VMware gerüchteweise noch nicht mit View 4.5 zur Verfügung stellen.

Applikations-Virtualisierung

Anwendungen können auf Terminal Servern oder virtuellen Desktops auf die gleiche Art und Weise bereitgestellt werden, wie auch auf physikalischen Systemen: Installation direkt ins Image, manuelle Installation oder Softwareverteilung. Durch die damit verbundene Abhängigkeit vom Betriebssystem kommt es häufig zu Problemen. Anwendungen sind untereinander oft nicht kompatibel, so dass dafür Lösungen gefunden werden müssen. Die Verwaltung der Lizenzen sowie das Ausbringen von Updates ist außer mit Softwareverteilung oder auf Terminal Servern eine nicht lösbare Aufgabe.

Abhilfe schafft hier die Virtualisierung von Applikationen. Darunter ist zu verstehen, dass eine Anwendung paketiert anstatt installiert wird und damit folgende drei Eigenschaften gewinnt: Unabhängigkeit vom Betriebssystem, Isolation gegenüber anderen Anwendungen und Portabilität. Diese "Sandbox" kann auf nahezu jedem beliebigen Windows-System zum Einsatz kommen - auf physikalischen Desktops mit Windows XP, virtuellen Arbeitsplätzen mit Windows 7 und natürlich auf Terminal Servern - alles aus einem Paket. Die Verwaltung, Zuteilung, Lizenzkonformität und auch das Patchen der Applikation wird damit wesentlich vereinfacht. Eine Anwendung ist in diesem Kontext ein Objekt, das Benutzern beliebig zugewiesen werden kann.

Egal welche Bereitstellungsmethode für Desktops gewählt wird, die virtuelle Applikation wird zukünftig wahrscheinlich der gemeinsame Nenner und der Dreh- und Angelpunkt werden. Da ist durch die Hersteller noch einiges an Entwicklungsarbeit zu leisten. Doch die aktuellen Releases sind sehr vielversprechend und haben das Potenzial, viele Probleme zu lösen.

Die Abkopplung der Applikationsbereitstellung von der des Arbeitsplatzes hat die Konsequenz, dass die Benutzeridentität und damit die persönlichen Einstellung gesondert verwaltet werden müssen. Eine virtualisierte Benutzeridentität ist notwendig, damit der Anwender, egal ob er per Fat-Client, Terminal Server oder virtuellem Desktop auf eine installierte oder virtualisierte Applikation zugreift, immer genau die gleichen Einstellungen und das gleiche Look-and-Feel hat. VMware und Citrix bieten dazu zwar entsprechende Module in ihrem Lösungspaket, allerdings sind diese nicht ausreichend. Kommt mehr als eine Bereitstellunsgform zum Einsatz, so sind Speziallösungen von Appsense oder RES Software gefragt.

Fazit - wie sag ich´s dem CFO?

Mit einer zentralen Bereitstellung von Desktops und Applikationen lässt sich die Verwaltung und der Betrieb von Endgeräten revolutionieren. Werden dann noch zentral administrierbare Thin Clients eingesetzt, so ist das Ergebnis eine dynamische und vor allem zuverlässige Infrastruktur. Die Herausforderung für eine konsequente Desktop-Virtualisierung ist insbesondere der Weg dahin - die Auswahl der passenden Komponenten. Es wird wahrscheinlich nie eine Lösung geben, die 100 Prozent abdeckt. IT-Verantwortliche sollte sich in Richtung eines Abdeckungsgrades von 80 Prozent orientieren: 80 Prozent der Anwender mit einer Bereitstellungslösung bedienen und die verbleibenden 20 Prozent mit einer Alternative. Nur so lassen sich über Skaleneffekte tatsächlich Einsparungen realisieren und die administrativen Aufwendungen senken. Die Akzeptanz der Benutzer ist ein weiterer kritischer Erfolgsfaktor. Nur wenn Vertreter der Anwender frühzeitig involviert werden, ist sichergestellt, dass auch die Ansprüche und Bedürfnisse mit beachtet werden.

Um einen belastbaren Vergleich zwischen der aktuellen Situation und der geplanten neuen Umgebung zu ermöglichen und so das Business-Management zu überzeugen, sind folgende wirtschaftlichen Werte notwendig zu erfassen:

- Kosten für

- Aufwendungen für Umzüge und Datensicherung

- Wartezeiten der Anwender bei IT-Arbeiten

- aktuelle Anwenderzufriedenheit

In der Regel lassen sich Investitionen in eine neue Technik nur über belegbare Einsparungen oder die spürbare Steigerung der Produktivität und Zufriedenheit der Mitarbeiter realisieren. Daher ist die Auswahl der Technik und der Produkte einer der wichtigsten Schritte in einem solchen Projekt. Für Unternehmen ist es entscheidend, dass sie sich in der Phase der Anforderungsdefinition, Produktauswahl und Evaluierung von einem kompetenten Partner unterstützen lassen, der über Projekterfahrung mit allen Techniken und den relevanten Herstellern verfügt. Damit wird der Grundstein für ein Gelingen des Projektes gelegt. (wh)