Bei der Desktop-Virtualisierung wird der vollständige Desktop inklusive aller Anwendungen zentral im Rechenzentrum betrieben. Der Anwender greift beispielsweise über einen Thin Client auf die gewohnte IT-Arbeitsumgebung zu. Virtuelle Desktops einzuführen, ist eine strategische Entscheidung für ein Unternehmen und bedarf einer guten Vorbereitung. Lesen Sie hier, wie Endanwender und IT-Administratoren von den Vorteilen der Virtualisierung profitieren können.
1. Definition der Benutzergruppen
Zunächst werden Schlüsselgruppen von Benutzern identifiziert, die vergleichbare Anforderungen an Ressourcen und Performance haben. In diesen standardisierten Gruppen werden Leistungsmessungen vorgenommen, beispielsweise welche Applikationen und Drucker die Anwender in welcher Art und Weise nutzen. Auf Basis dieser Messergebnisse lassen sich Größenordnungen bezüglich Performance, Netzbandbreite, Arbeitsspeicher und Prozessorleistung für die verschiedenen Schlüsselgruppen berechnen.
2. Server Based Computing
Nicht immer muss der Weg in die reine Desktop-Virtualisierung führen. So können beispielsweise auch eine Terminal-Server-Umgebung und ein Mischbetrieb sinnvoll sein. Die Entscheidung zwischen Terminal-Services und virtuellen Desktops sollte sich im Wesentlichen an den Benutzergruppen und der erforderlichen Applikationslandschaft ausrichten. Die Desktop-Virtualisierung empfiehlt sich beispielsweise, wenn der mobile Zugriff auf die Applikationen wichtig ist. Zudem lässt die Technik manchmal keine andere Wahl, denn nicht alle Applikationen sind Terminal-Server-fähig. Hier müssen Tests zeigen, welche Applikationen geeignet sind. Zudem hilft die Analyse der Benutzergruppen.
Das Protokoll bindet an einen Anbieter
3. Management
Kaum ein Unternehmen wird ausschließlich virtuelle Desktops einsetzen. Das einheitliche Management einer heterogenen Desktop-Landschaft ist daher umso wichtiger, schließlich soll die virtuelle Welt nicht als Insellösung betrieben werden. Doch eine einheitliche IT-Verwaltung darf nicht darüber hinwegtäuschen, dass unterschiedliche Technologien für die Administrationsprozesse zum Einsatz kommen. Beispielsweise wird in einer physischen IT-Umgebung die klassische Softwareverteilung genutzt, um Anwendungen lokal auf dem Arbeitsplatz-PC zu installieren. Nutzer eines virtuellen Desktops bekommen hingegen die Applikationen zugewiesen, die Software wird also nicht nachträglich installiert. Vielmehr sind die Softwarekomponenten entweder bereits im Basis-Image vorhanden, werden in den virtuellen Desktop geladen oder ein Terminal-Server liefert die Applikation aus.
4. Protokollwahl
Die Analyse der Benutzergruppen gibt entscheidende Hinweise für die Protokollwahl. Zählt die Mehrzahl der Mitarbeiter zu den Task-Workern, die also nur mit Office-Programmen und einer Kernanwendung arbeiten? Oder nutzen die Anwender rechenintensive 3D- oder CAD-Applikationen? Aus den Anforderungen lässt sich die Protokollwahl ableiten. Die Entscheidung hat Tragweite, immerhin binden sich die Unternehmen damit an einen Hersteller. Zur Auswahl stehen beispielsweise das einfache RDP- (Microsoft), das optimierte ICA- (Citrix) und das von VMware verwendete PCoIP-Protokoll sowie das von HP für Hochleistungsgrafik entwickelte RGS-Protokoll. In der Regel liefert ein Proof of Concept die nötigen Antworten, ob die Protokolle die benötigte Bandbreite liefern, um die Anwendungen an die Endgeräte auszuliefern. Es empfiehlt sich, ausgiebige Tests vor der Produktentscheidung zu fahren.
Zugriffssicherheit gewährleisten
5. Migrationstrategien
Wie kommt ein Unternehmen von alt nach neu? Bewerkstelligen lässt sich dies beispielsweise im Rahmen einer Migration von Windows XP nach Windows 7. Die virtuelle Desktop-Umgebung lässt sich hierbei beispielsweise bereits in der Windows-7-Umgebung vorbereiten, aber zunächst noch parallel auf den mit Windows XP ausgestatteten Altgeräten betreiben. Der Umstieg erfolgt dann schrittweise. Alternativ bietet es sich an, bei der Einführung der virtuellen Desktops zunächst Erfahrungen mit der bisherigen Architektur und dem bekannten Betriebssystem zu sammeln.
6. Sicherheit
Für einen sicheren Betrieb ist ein verlässliches Zugriffsverfahren unabdingbar. Dafür bieten sich beispielsweise ein VPN-Gateway oder eine Token-Architektur an. Ganz wichtig sind auch Verschlüsselung und Authentifizierung. Des Weiteren sollte ein Unternehmen berücksichtigen, dass für virtuelle Desktops die gleichen Sicherheitsrichtlinien gelten wie für physikalische Desktops. Da alle Daten zentral vorgehalten werden, drohen beim Verlust eines Notebooks zumindest keine Informationslücken.
7. Drucken
Möchte der Nutzer einer virtuellen Arbeitsumgebung am lokalen Endgerät drucken, fließen zum Teil sehr viele Daten durch das Netz. Das Druck-Management ist daher frühzeitig im Rahmen der Planung von Netzkonnektivität und -bandbreite zu berücksichtigen. Anwender und IT-Verantwortliche sollten sich beispielsweise darauf verständigen, ob und wo Netzwerkdrucker oder lokale Drucker erforderlich sind. Hersteller wie etwa ThinPrint vertreiben Produkte, die das Drucken in virtuellen Umgebungen optimieren. Auch Citrix und VMware bieten spezielle Treiber zur Druckstromoptimierungen sowie Komprimierungslösungen an.
Die Last mit Open Source
8. Wahl der Endgeräte
Die Desktop-Virtualisierung erlaubt eine freie Wahl der Endgeräte. So lassen sich vorhandene PCs einfach weiternutzen. Dafür wird ein abgespecktes und somit wartungsarmes Betriebssystem installiert, das die Verbindung zum virtuellen Desktop aufbaut und aufrecht hält. Statt Desktops können Unternehmen sukzessive Thin Clients einführen. Kommen aber hochperformante Anwendungen etwa für die 3D-Bearbeitung zum Einsatz, sind normale Thin Clients zu leistungsschwach. Hier sind Endgeräte mit guter Grafikkarte und leistungsstarker CPU erforderlich, die Daten lokal verarbeiten können. Das kann dazu führen, dass zwar die Sessions aus dem Rechenzentrum übertragen werden, der PC aber weiterhin am Arbeitsplatz steht. Die Analyse der Benutzeranforderungen liefert auch hier wichtige Informationen für das Sizing.
9. Open Source
Citrix und VMware virtualisieren reine Microsoft-Infrastrukturen, Linux-Desktops unterstützen beide Hersteller nicht. Wer Mischstrukturen betreibt, muss sich anderweitig am Markt umsehen oder individuelle Lösungen bauen. Einige kleinere Anbieter haben sich auf die Bereitstellung von Linux-Desktops spezialisiert, wie beispielsweise NoMachine mit dem NX-Protokoll. Auch RedHat hat mit dem Spice-Protokoll neuerdings eine Lösung im Portfolio. (jha)
Weitere Artikel zum Thema
Ratgeber: Wann lohnt sich Desktop-Virtualisierung?
Desktop-Virtualisierung: Die wichtigsten VDI-Systeme
Hypervisor im Vergleich: Ist KVM das bessere Xen?
Microsoft, VMware, Citrix: Server-Virtualisierung zum Nulltarif