Projekt Desktop-Virtualisierung

So planen Sie virtuelle PCs

27.10.2010 von Karsten Ehlebracht
Wann lohnt sich die Desktop-Virtualisierung? Antworten auf diese und weitere Fragen zu Thin Clients finden Sie hier.

Was ist Desktop-Virtualisierung?

Desktop-Virtualisierung verlegt die klassischen Desktop-Arbeitsplätze auf eine Server-Farm. Virtuelle PCs sind damit zentral im Rechenzentrum manage- und administrierbar. Die Mitarbeiter können mit virtuellen PCs genauso komfortabel arbeiten wie zuvor. Jeder hat eine "eigene" virtuelle Maschine, die alle Anwendungen einschließlich des Betriebssystems und der persönlichen Einstellungen bereitstellt. Als physische Endgeräte, an denen die Angestellten arbeiten, genügen Thin Clients. Sie sind einfach zu verwalten und billig im Betrieb. Auch die vorhandenen PCs können als Basis für diese Technik genutzt werden. Damit lassen sich die neuen Arbeitsplätze ohne zusätzliche Hardware betreiben.

Was bringt die Desktop-Virtualisierung?

Bild: WindowsPro, Andreas Kroschel

Der Nutzen von Infrastrukturprojekten ist generell schwer zu berechnen. Nichtsdestotrotz gibt es überzeugende Argumente für eine zügige Umsetzung der Desktop-Virtualisierung: Zum einen bringt sie mehr Sicherheit durch die zentrale Datenablage, zum anderen reduziert sie den Verwaltungsaufwand. Nicht zuletzt kann ein Virtualisierungsprojekt auch ein Katalysator für eine Neustrukturierung des PC-Wildwuchses sein, weil unter anderem Arbeitsplatztypen eingeführt werden.

Für Unternehmen, die auf Mobilität und den schnellen Aufbau einer Arbeitsinfrastruktur an neuen Standorten angewiesen sind, ergeben sich weitere Vorteile: Zeitgewinn und schnelle Reaktion auf sich verändernde Geschäftsmodelle werden durch Desktop-Virtualisierung erleichtert oder gar erst ermöglicht. Schließlich kann eine geplante Windows-7-Migration Anlass sein, sich mit einer Desktop-Virtualisierung zu beschäftigen.

Für wen lohnt sich Desktop-Virtualisierung?

Desktop-Virtualisierung kann sich für Installationen aller Größenordnungen lohnen. Wichtig ist eine genaue Analyse im konkreten Fall - auch für eine Arztpraxis oder eine Anwaltskanzlei kann sie sinnvoll sein. Am meisten profitieren große Unternehmen davon, die viele ähnliche Arbeitsplätze haben und wo viele Mitarbeiter mehr oder weniger die gleichen Anwendungen nutzen. Der Vorteil der Desktop-Virtualisierung liegt auf der Hand: Ist das erste Rechner-Image inklusive der benötigten Anwendungen erstellt, kann es per Cloning mit einem Mausklick oder vollautomatisch vervielfacht werden.

Weniger sinnvoll sind virtualisierte Desktops bei Arbeitsplätzen mit sehr speziellen Hardwareanforderungen, beispielsweise CAD-Arbeitsplätze, oder in einem Anwendersegment mit nicht oder wenig standardisierbarem Softwareportfolio. Für die meisten Anwendungsfälle gibt es besonders geeignete Bereitstellungstechniken wie Terminal-Server, Applikationsvirtualisierung und die klassische Softwareversorgung.

Vorteile der Desktop-Virtualisierung

Desktop-Virtualisierung bringt enorme Mobilität, Flexibilität und einen signifikanten Sicherheitszuwachs. Dank virtualisierter Desktops kann jeder Mitarbeiter an jedem beliebigen Rechner - und über eine gesicherte Netzverbindung sogar außerhalb des Unternehmens - mit Laptop oder Smartphone arbeiten.

Besonders die Geräte der neuen Generation wie iPad, iPhone oder Android-Smartphones werden durch Desktop-Virtualisierung einfach in die Unternehmensinfrastruktur eingebunden. Zudem ist durch virtuelle Desktops das Einbringen fremder sowie die Mitnahme unternehmenseigener Daten zentral kontrollierbar. Ein weiterer Sicherheitsaspekt: Eine Backup-Strategie für die einzelnen Arbeitsplätze entfällt, da die Daten mit den Sicherungsverfahren des Rechenzentrums gesichert und wiederhergestellt werden können.

Schnelle Bereitstellung von PCs und Applikationen

Durch die Zentralisierung lassen sich neue Anforderungen an die IT schnell, unkompliziert und kostengünstig erfüllen. Die Arbeitsplätze können hochverfügbar gestaltet werden, und die Bereitstellungszeiten für PCs, beispielsweise projektbezogen oder für Testumgebungen - und Applikationen im laufenden Betrieb, sinken deutlich. Will ein Unternehmen expandieren, lässt sich die IT-Infrastruktur in kürzester Zeit aufbauen. Ein physischer Rollout, bei dem PCs vorbereitet, verschickt und aufgestellt werden müssen, entfällt.

Ein Beispiel: Beim Einsatz eines neuen Betriebssystems mussten früher häufig die Rechner ausgetauscht werden, um die Systemanforderungen der neuen Software zu erfüllen. Das ist bei virtualisierten Desktops nicht mehr nötig, Kapazitäts-Upgrades erfolgen im Rechenzentrum! Ein Migrationsprojekt verlagert sich damit hin zur Umsetzung im Rechenzentrum. Das Gleiche gilt für Wartung und Support, die nicht mehr vor Ort geschehen müssen. Zudem wird das Management der Clients an den Arbeitsplätzen deutlich vereinfacht - bei Defekten ist es meist billiger, das Gerät durch ein Neues zu ersetzen, denn Desktop, persönliche Einstellungen, Anwendungen und Daten liegen zentral auf dem Server.

Nachteile der Desktop-Virtualisierung

Besteht keine Datenverbindung, ist der virtualisierte Desktop nicht erreichbar. In Sachen Offline-Fähigkeit muss also noch nachgebessert werden. Darüber hinaus führt die Desktop-Virtualisierung nicht unmittelbar zu Kosteneinsparungen. Anforderungen an verfügbare Bandbreiten, Server-Leistungen oder Speicherkapazitäten können bei der Virtualisierung so hoch sein, dass sie die sinkenden Hardwarekosten und den geringeren Stromverbrauch erst einmal neutralisieren. Auch die einfachere und günstigere Wartung gegenüber klassischen Fat Clients macht sich erst auf Dauer positiv bemerkbar.

Tipps zur Planung und zur Umsetzung

Eine "Lösung von der Stange" gibt es bei der Desktop-Virtualisierung nicht. Damit sie zum Erfolg wird, müssen zuerst die bestehenden Prozesse gründlich analysiert und die angestrebten Ziele präzise definiert werden: Will man Geld sparen, Prozesse effizienter gestalten oder die Mobilität der Mitarbeiter erhöhen? Wie soll das Anwendungsportfolio aussehen? Wie soll der Servicekatalog heute und künftig aussehen? Hier gibt es Sinn, sich einen unabhängigen Architekten an Bord zu holen, der einen Überblick über das Angebot der Hersteller wie VMware, Citrix oder Microsoft hat, über das notwendige technische Know-how verfügt und vor allem die Geschäftsanforderungen des Unternehmens in IT-Anforderungen übersetzt, damit die Lösung ganzheitlich und zukunftsfähig entwickelt wird. Erst nach Definition der Anforderungen kann ein optimaler Technologie-Mix bestimmt werden. In den meisten Fällen ist es beispielsweise sinnvoller, eine vorhandene Technik auszubauen, als sie komplett durch eine neue zu ersetzen. Speziell in größeren IT-Umgebungen, zum Beispiel mit hoher Automation und Prozessmaturität, sind in der Regel Tools gesetzt, die es bei der Einführung von Desktop-Virtualisierung zu integrieren gilt.

Mitarbeiter einbeziehen

Ein wichtiger Tipp vorweg: Von Anfang an sollten Mitarbeiter - sowohl Benutzer als auch Administratoren - in die Desktop-Virtualisierung einbezogen werden. Wie bei den meisten IT-Projekten trägt die Technik nur 30 Prozent zum Erfolg bei, Mensch und Organisation die anderen 70 Prozent. Nicht alle "Selbstverständlichkeiten" oder gewohnten Funktionen, die in der nicht virtualisierten Desktop-Umgebung vorhanden sind, werden zukünftig explizit erbracht. Beispiele hier: USB-Fähigkeit, lokale Scanner und Drucker oder vom Benutzer selbst installierte Software.

Neues IT-Paradigma: Der Client liegt auf dem Server

Desktop-Virtualisierung erfordert mehr Teamarbeit in der IT-Abteilung.
Foto: Getty Images

Ein Aspekt, der gerne unterschätzt wird: Die IT-Abteilung muss richtig auf die neue Situation eingestellt werden, denn die klassische Unterscheidung von Client- und Server-Teams entfällt. Da der Client auf dem Server liegt, müssen die Teams viel enger zusammenarbeiten und Probleme gemeinsam lösen - ein kultureller Wandel und eine Schwierigkeit, die oft nicht ausreichend beachtet wird.

Ist die sorgfältige Potenzialanalyse abgeschlossen, werden erste geeignete Teilprojekte identifiziert und umgesetzt. Die Teilprojekte sollten nicht zu groß werden - aber groß genug sein, um Erfolge zu erzielen. Nur eine weitreichende Integration der Administationsverfahren sowie ein automatisierter Betrieb aller Bereitstellungstechniken heben die Synergiepotenziale wirklich.

Im nächsten Schritt muss vor dem Beginn der eigentlichen Implementierung die Machbarkeit in einem Proof-of-Concept-Verfahren nachgewiesen werden: Die gewählte Gesamtarchitektur wird im Kontext des Unternehmens getestet, ob sie wie gewünscht funktioniert. Darüber hinaus sind die vollständige Abbildung der Prozesse und die funktionierende Automation nachzuweisen.

Übung in Pilotprojekten macht den Meister

Wenn die Detailkonzepte - Client-Release, zentrale Architektur, Betriebskonzept, Prozessdokumentation und Rollout-Konzept - stehen, können Implementierung der zentralen Komponenten und Migration beginnen. Dabei sollte der Rollout in Phasen aufgeteilt werden, um Schwierigkeiten leichter einzugrenzen und zu beheben. Am besten wird zuerst eine Pilotumgebung umgesetzt. In dieser Umgebung ist die Infrastruktur zwar schon vollständig, allerdings ist noch nicht die gesamte Betriebskapazität notwendig. Die ausgesuchten Pilotanwender prüfen, ob sämtliche benötigten Funktionen vorhanden sind und dass die Umstellung funktioniert. Neben eingehenden funktionalen Tests sollte genügend Zeit für die Optimierung der Performance des Gesamtsystems eingeplant werden. Client-Applikationen, aber auch Backend-Prozesse haben auf virtualisierte Umgebungen teilweise andere Effekte als auf eine verteilte Umgebung.

Auf Probleme vorbereitet sein

Probleme müssen bei Virtualisierungsprojekten einkalkuliert werden. Bild: Fotolia, 74774154
Foto: Fotolia, 74774154

Läuft die Pilotumgebung, kann der gesamte Betrieb in Angriff genommen werden. Wie bei allen großen IT-Projekten funktioniert selten alles auf Anhieb. Deshalb ist es wichtig, sich auf mögliche Probleme vorzubereiten. Beispiel Skalen- und Masseneffekte: 50 virtualisierte Desktops verhalten sich anders als 1000 virtualisierte Desktops.

Häufige Fehler

Welche gängigen Fehler gibt es? Die Komplexität des Projekts wird oft unterschätzt. Desktop-Virtualisierung ist ein Maßanzug und keinesfalls vergleichbar mit einem Betriebssystem-Upgrade. Es ist eine Veränderung im IT-Management. Solch ein komplexes Infrastrukturprojekt ist nicht "so nebenher" umsetzbar. Vielmehr werden dedizierte Mitarbeiter und ein erfahrenes Projekt-Management benötigt. Nicht "abgeholte" Mitarbeiter können ebenfalls schnell zum Problem werden.

Zudem sollte man auch nicht auf einen allzu schnellen Return on Investment hoffen. Desktop-Virtualisierung ist eine Ermöglichungstechnik: Die Investition ist zu Beginn hoch und amortisiert sich nicht kurzfristig, sondern erst nach drei bis vier Jahren. Von Beginn an stärkt die Virtualisierung allerdings die Zukunftsfähigkeit der IT. Keine physischen Rollouts mehr, Release-Wechsel und nötigenfalls auch ein Rollback erfolgen auf Knopfdruck im Rechenzentrum, Supportkosten können gespart werden, Einsatz- und Lebensdauer der Clients steigen deutlich an. Schlussendlich ist das Managen einer Umgebung von mehreren hundert Mitarbeitern kein Kinderspiel, dafür braucht es Erfahrung und Know-how.

Fazit

Die Desktop-Virtualisierung ist die wichtigste IT-Infrastrukturveränderung der Zukunft. Sie liefert eine schlüssige Basis für Restrukturierung und Migration bestehender Systeme. Sie ist aber vor allem auch eine Brücke zur homogenen Einbindung von neuen Geräten wie Smartphones, Net-PCs, iPads und für eine schnelle Reaktion auf neue Betriebssysteme wie Windows 7, Linux und Android.

Desktop-Virtualisierung verändert die Prozesse

Desktop-Virtualisierung ist nicht in erster Linie ein Technikprojekt. Es verändert, wie alle Infrastrukturprojekte, neben der Technik vor allem auch Prozesse und Organisation. Erfahrungen mit großen Server-Systemen und gleichzeitig die Fähigkeit, die Heterogenität der Client-Welt unter einen Hut zu bringen, Kenntnis der unterschiedlichen technischen Ansätze sowie ein herstellerunabhängiges Herangehen sind die Schlüssel zum Erfolg. Da es keinen fertigen Fahrplan gibt, kann ein erfahrener Lotse helfen, die Untiefen zu erkennen und sie zu umschiffen.