Smartphones und Tablets inside

So geht Client-Virtualisierung

13.07.2011 von Wolfgang  Schwab
Die Client-Virtualisierung macht IT-Abteilungen noch immer Kopfzerbrechen. Die Experton Group stellt fünf Ansätze vor.
Foto: Fotolia / pixeltrap

Die Client-Virtualisierung spielt erst seit 2008 in der allgemeinen Diskussion über die künftige Client-Infrastruktur eine nennenswerte Rolle. Die meisten Unternehmen verhielten sich zunächst noch abwartend, um zu eruieren, welche Vorteile sich daraus konkret ergeben und wo die Fallstricke sind. Entsprechend klein ist derzeit noch der Markt für derartige Lösungen, mit Ausnahme des seit Längerem etablierten Ansatzes der Presentation-Virtualisierung, den die meisten Anwender unter Server Based Computing beziehungsweise Terminal Services kennen. Inzwischen gibt es aber schon zahlreiche Projekte, die sehr erfolgreich umgesetzt wurden. Die mit der Client-Virtualisierung im Wesentlichen verfolgten Ziele werden nachfolgend erläutert:

Drei Ziele der Client-Virtualisierung

1. Administration der Clients vereinfachen

Reduktion des Wartungsaufwands auf der Client-Seite: Ein nicht unerheblicher Anteil der gesamten IT-Administrationstätigkeiten entfällt auf den Client-Bereich. Zwar lassen sich diese Aufwendungen durch geeignete System-Management-Werkzeuge reduzieren, jedoch verbleiben zwei wesentliche Bereiche, die durch Client-Virtualisierung adressiert werden können.

Integration und Datensicherheit

2. Integration aller Endgeräte durch Virtualisierung

Integration von neuen beziehungsweise nicht standardkonformen Endgeräten: Seit Mitte 2010 zeigen sich neue Trends auch in der Unternehmens-IT. Einerseits möchte eine steigende Zahl von Anwendern ihre eigene Hardware nutzen - "Bring your own PC" lautet der entsprechende Slogan. Andererseits wächst der Wunsch, auf Applikationen mittels Smartphone oder Tablet-PC zugreifen zu können, auch wenn dort kein Standard-Betriebssystem läuft und Anwendungen nativ nicht lauffähig sind. Eine Lösung dieser relativ neuen Herausforderung ist die Virtualisierung der Clients. Damit ist lediglich ein Browser auf dem jeweiligen Endgerät notwendig, um alle Anwendungen betreiben zu können.

3. Erhöhung der Datensicherheit

Daten, die nicht zentral gehalten werden, können kaum mit vertretbarem Aufwand gesichert werden. Gleichzeitig zeigt die Erfahrung, dass Vorgaben zur Speicherung von Daten im Netz sowie nicht lokal nur unzureichend befolgt werden. In einer virtuellen Client-Umgebung lässt sich die zentrale Speicherung wesentlich einfacher erzwingen, da es keine lokale Datenhaltung geben kann. Entsprechend kann ein Datenverlust durch geeignete Backup-Strategien weitestgehend ausgeschlossen werden.

Fünf Ansätze der Client-Virtualisierung

Bei der Client-Virtualisierung unterscheidet man im Wesentlichen die folgenden Ansätze:

Client-Virtualisierung

In seiner grundlegendsten Form funktioniert die Virtualisierung von Clients analog zur Server-Virtualisierung mit Hilfe eines Hypervisors. Dadurch ist es möglich, mehrere Betriebssysteme parallel auf einem Client ablaufen zu lassen. Insbesondere Softwareentwickler nutzen diese Möglichkeit, um Software in einem isolierten Bereich testen zu können, ohne den Betrieb des Clients insgesamt zu stören. Ein weiteres Beispiel ist die Nutzung auf Apple-Hardware, um dort Microsoft Windows und Windows-Anwendungen nutzen zu können. Ein zentrales Management ist in der Regel jedoch nicht möglich, was den Administrationsaufwand tendenziell erhöht. Ein breiter Einsatz in Unternehmen ist also eher nicht zu empfehlen und findet derzeit auch kaum statt.

Managed Desktop VM

Managed-Desktop-VM-Produkte ergänzen die Client-Virtualisierung durch eine zusätzliche Sicherheitsschicht. Eine Managed-Desktop-Lösung ermöglicht es Unternehmen, ein oder mehrere Standard Desktop Virtual Machine Templates zu erstellen sowie zentral zu managen. Diese Templates werden dann in Form einer virtuellen Maschine verteilt. Sicherheit ist dabei die größte Herausforderung, auf die mit Virtual Machine Authentication und eingeschränkten Zugriffen auf lokale Ressourcen reagiert wird. Zu den wichtigsten Einsatzszenarien gehören die Verteilung von Anwendungen, die mit dem Betriebssystem nicht kompatibel sind (zum Beispiel ältere Windows-2000-Anwendungen unter Windows 7) oder Anwendungen für Freiberufler, die nur auf einzelne Daten zugreifen können sollen, sowie die Absicherung von PCs von Mitarbeitern mit eigenem PC. Problematisch ist in der Regel der relativ umständliche Synchronisierungsprozess. Derzeit finden Managed-Desktop-VM-Lösungen insbesondere bei der Anbindung von Freiberuflern ihren Einsatzbereich, speziell dann, wenn die Presentation-Virtualisierung nicht implementiert oder nicht geeignet ist.

Application Streaming

Application Streaming umfasst paketierte Anwendungen, die auf einem Streaming Server gehostet werden. Von dem Streaming Server werden sie in kleinen Paketen auf den jeweiligen Client geladen und laufen dort lokal in einem isolierten Bereich - einer Sandbox - ab. Die Wartung derartiger Anwendungen ist einfacher, da sie zentral im Rechenzentrum gehostet werden. Ein Offline-Betrieb ist ebenfalls möglich, da die Anwendung lokal arbeitet. Darüber hinaus ist auch das Deployment einfacher, da die Anwendungen in der Sandbox laufen, also keine Probleme mit neuen Betriebssystemen oder anderen Anwendungen hervorrufen können. Applikationen mit sehr kurzem Update-Zyklus sind in diesem Zusammenhang eher als problematisch zu werten, weil nach Updates die Anwendungen neu paketiert werden müssen. Derzeit ist der Einsatz von Applikation-Streaming-Produkten noch sehr begrenzt, nicht zuletzt, weil viele Mittelständler und die großen Unternehmen weiterhin auf Presentation-Virtualisierung setzen.

Presentation-Virtualisierung

Bei dieser Form der Virtualisierung greifen Anwender von ihrem Client auf eine Applikation zu, die auf einem Server läuft. Ursprünglich wurde diese Technik eingeführt, um so genannte Task Workers zu unterstützen, die nur ein oder zwei Programme nutzen und keinerlei Anpassungen vornehmen müssen. Kernstück dieses Verfahrens ist das Remote Access Protocol, welches es dem Anwender erlaubt, vom Client auf die jeweilige Anwendung zuzugreifen. Diese Technik ist auch für Virtual Desktop Infrastructure (VDI) wichtig. Die entscheidenden Vorteile liegen in der Reduktion von Kompatibilitätsproblemen und in der Tatsache, dass alle Daten im Rechenzentrum verbleiben. Falls keine Offline-Arbeit nötig ist, ist diese Technologie ideal, um Tablet-PCs, Smartphones und anderen Gadgets Zugriff auf Unternehmensanwendungen zu ermöglichen. Das größte Manko dieses Ansatzes ist jedoch die fehlende Offline-Funktionalität. Wenn nicht einmal eine schmalbandige Verbindung zum Server besteht, ist ein Arbeiten nicht möglich.

Die Presentation-Virtualisierung ist noch immer die am häufigsten genutzte Client-Virtualisierungslösung. Das liegt einerseits an der Tatsache, dass entsprechende Produkte von Microsoft und Citrix seit über zehn Jahren auf dem Markt sind (Terminal Server, Meta-Frame etc.). Andererseits aber auch daran, dass die Ressourcenausnutzung im Rechenzentrum am besten gewährleistet werden kann, so dass im Vergleich beispielsweise zur VDI weniger Server benötigt werden. Ein weiterer Grund für die konstante Beliebtheit der Presentation-Virtualisierung liegt in der Administration der Applikationen, die zentral erfolgt und keinen zusätzlichen Aufwand wie etwa eine Neupaketierung beim Application Streaming nach sich zieht.

Top 5 der Cloud-Computing-Anwendungen
Top 5 der Cloud-Computing-Anwendungen
Die Experton Group hat herausgefunden, in welchen Segmenten Unternehmen mit mehr als 1.000 Mitarbeitern Cloud Computing-Technologien einsetzen.
1. Virtualisierung:
Die Virtualisierung der eigenen Rechenzentrumsressourcen ist für eine Vielzahl von Unternehmen seit Jahren eines der strategisch wichtigen Themen. Einerseits versprechen sie sich dadurch eine höhere Kosteneffizienz und andererseits mehr Flexibilität in der Bereitstellung von Rechen- und Speicherleistung.
2. SaaS:
Die Nutzung von Anwendungen im Rahmen des Software as a Service-Modells ist im laufenden IT-Betrieb mittlerweile weit verbreitet. So nutzen schon heute Unternehmen in Deutschland Standard-Anwendungen wie CRM, Security, Projektmanagement oder Collaboration über das Internet.
3. Backup:
Storage as a Service-Konzepte sind hochinteressant und sehr sinnvoll, da der Aufbau und das Management hochskalierender Storage-Architekturen hohe Investitionen und entsprechende Skills auf der Personalseite erfordert. Unternehmen nutzen die Storage-Infrastrukturen der Cloud-Anbieter, um web-basierten und ressourcenintensiven Content zu speichern oder im Rahmen von Backups zu sichern.
4. Webanwendungen:
Bowser gestützte und mobile Applikationen kommen immer dann zum Einsatz, wenn variable Last- und Workloadprofile benötigt werden oder Last- und Nutzungsprofile schlecht planbar sind ...
5. Mobile Apps:
... Cloud-Infrastrukturen bieten hier den Vorteil, dass nur die real genutzten Server- und Speicherkapazitäten zu bezahlen sind.

Virtual Desktop Infrastructure

Ähnlich wie beim traditionellen Thin Client Computing werden beim VDI-Verfahren Desktops auf virtualisierten Servern gehostet. Anwender greifen über ein Endgerät und ein Remote-Access-Protokoll zu. Da der eigentliche Desktop und die Daten im Rechenzentrum verbleiben, sind Wartung und Fehlersuche wesentlich einfacher und die Datensicherheit besser sicherzustellen als beim klassischen Fat-Client-Betrieb.

Problematisch ist der Umstand, dass VDI-Lösungen relativ komplex sind. Es wird neben einer Server-Virtualisierungslösung auch ein Remote-Access-Protokoll, ein Connection Broker und sinnvollerweise auch Image-Cloning und Netzwerk-Booting benötigt. Das größte Manko dieses Ansatzes ist die häufig fehlende Offline-Funktionalität. Wenn keine Verbindung zum Server besteht, ist ein Arbeiten nicht möglich. Es gibt inzwischen zwar sowohl von Citrix als auch von VMware zusätzliche Features, die ein Arbeiten offline mit VDI ermöglichen, jedoch sind sich die wesentlichen Anbieter von Managed Services im Client-Umfeld einig, dass eine unternehmensweite Nutzung dieser Optionen noch nicht empfehlenswert ist. Zusätzlich ist festzustellen, dass die Betriebskosten einer Virtual Desktop Infrastructure deutlich höher sind als bei der klassischen Presentation-Virtualisierung.

Wann gibt Client-Virtualisierung Sinn?

Client-Virtualisierung wird bei den meisten Unternehmen dann ein Thema, wenn Techniken Einzug halten, die mit klassischen Methoden nicht oder nicht effizient unterstützt werden können.

Zurzeit sind viele Unternehmen damit beschäftigt, die anstehende Windows-7-Migration zu planen. Einige haben das Testing der Applikationen bereits abgeschlossen, wenige bereits mit dem Rollout begonnen.

Das Thema Client-Virtualisierung ist im Allgemeinen relativ komplex und bindet deutlich Ressourcen in den IT-Abteilungen, das Gleiche gilt für die Windows-7-Migration. Deshalb ist es nicht ratsam, beides parallel zu versuchen. Insbesondere mittelständische Unternehmen mit begrenzten IT-Ressourcen sind also gut beraten, sich an folgendes Vorgehen zu halten:

  1. Entscheidung für oder gegen VDI treffen.

  2. Applikations- und Integrationstest von Windows 7 ausführen.

  3. Problematische Applikationen auf Virtualisierbarkeit (Application Streaming, Presentation-Virtualisierung) testen.

  4. Virtualisierungslösung gegebenenfalls implementieren.

  5. Rollout von Windows 7 umsetzen.

Mit diesem Vorgehen ist sichergestellt, dass einerseits die notwendige Infrastruktur bereitsteht und andererseits die Ressourcen nicht überlastet werden.

7 Ratschläge für die IT der Zukunft
7 Ratschläge für die IT der Zukunft
Unternehmen müssen über die Zukunft der IT-Plattform nachdenken. Die Frage ist, ob die bestehenden Architekturen für das künftige Geschäft ausreichen.
1. Flexibiltät ist der Schlüssel
Die altbewährten Fünf-Jahres-Pläne für die IT sind schon lange nicht mehr sinnvoll. Die Notwendigkeit Plattformen regelmäßig zu verändern, wirkt sich unter anderem auf die Energieverteilung und die Kühlung von Rechenzentren aus. Der Wechsel von einer Plattform zur anderen hat direkte Auswirkungen auf das Geschäft.
2. Cloud Computing ist keine Mode-Erscheinung
Der Hype um Cloud Computing war etwas übertrieben. Dennoch darf nicht ignoriert werden, dass die Implementierung die Unternehmen in den kommenden Jahren stressen wird. Sie müssen bestimmen, wo Workloads am besten verwaltet werden und wie sie von vorhandenen Architekturen in private, öffentliche und Hybrid-Cloud-Umgebungen umziehen.
4. Die existierende Plattform verbessern
Wenige Unternehmen sind vollkommen unbelastet. Die IT und die dazugehörige Ausstattung bestehen bereits und es muss in ihre Optimierung investiert werden. Wichtig ist der Aufbau eines nicht-invasiven Modells auf etwas, was schon besteht.
5. Modellierung ermöglicht ein besseres Verständnis über PUE und CRC
Die Entscheidung der britischen Regierung für ein CRC-Gesetz (Carbon Reduction Commitment) hat dazu geführt, dass der Kohlenstoffausstoß kontrolliert werden muss. Unternehmen sollten sicherstellen, dass sie genau wissen, wie sich der Kohlenstoffausstoß bei jeglichen Veränderungen verhält.
6. Die passende IT für das Geschäftsrisikoprofil
Wichtig ist, dass Unternehmen sich ein vollständiges Bild über die IT zusammen mit den Abhängigkeiten zwischen IT und Rechenzentrums-Anlagen machen. Ist das gelungen, kann das Geschäft besser unterstützt werden.
7. Mit Kostenmodellen fundierte Entscheidungen treffen
Die Budgets stehen nicht nur bei der IT, sondern in allen Geschäftsbereichen unter starkem Druck. Aus diesem Grund müssen Unternehmen in der Lage sein, ihre Entscheidungen über eine Reihe von Variablen treffen zu können.