Desktop Virtualisierung

Die Infrastruktur muss stimmen

14.09.2011 von Thomas Pelkmann
Desktop-Virtualisierung steht bei vielen Unternehmen auf der Agenda weit oben. Damit Virtualisierungsprojekte nicht im Frust enden, sind allerdings eine gute Vorbereitung sowie Arbeiten an der Netzwerk-Infrastruktur nötig.

Bei Analysten, Anbietern und Anwenderunternehmen herrscht große Einigkeit darüber, dass das Thema Desktop-Virtualisierung zu den großen Trends unserer Tage zählt. So gaben etwa in einer aktuellen Umfrage des Lösungsanbieters Matrix42 sechs von zehn Unternehmen an, dass sie innerhalb der "nächsten zwei Jahre" ihre Desktops virtualisieren würden. Der Anteil von kleinen Betrieben ist mit 67 Prozent sogar höher als bei mittleren und großen Unternehmen.

Analysten von Gartner prognostizierten Ende 2010 für 2013 ein Marktvolumen von 65 Milliarden Dollar für VDI-Lösungen (VDI = "Virtual Desktop Infrastructure"). Das entspricht rund 40 Prozent des weltweiten Markts für professionell genutzte PCs. Und in einer IDC-Umfrage von Anfang des Jahres rechnen gut 60 Prozent der Befragungsteilnehmer damit, dass sich Client-Virtualisierung in den kommenden Jahren am Markt etablieren wird.

Weitere 17 Prozent gehen davon aus, dass Client-Virtualisierung die Art und Weise der Bereitstellung von IT grundlegend ändern wird. Dabei geht die Virtualisierung auf den unterschiedlichen Anwendergeräten weiter als die reine VDI: Bei der Desktop Virtualisierung sind die Bereitstellungsmöglichkeiten von Betriebssystem, Anwendungen und Daten so vielfältig und flexibel wie die Arbeitsumgebungen selbst.

Der Virtualisierungs-Hype verwundert nicht, denn die Vorteile von Desktops-Virtualisierung liegen auf der Hand: Bereitstellung, Management, Absicherung und Support eines Desktop-Arbeitsplatzes werden durch Virtualisierung einfacher. Ebenfalls leichter und zudem sicherer wird in virtuellen Umgebungen das mobile Arbeiten - zunehmend auch mit unterschiedlichen Endgeräten wie Tablets oder Smartphones. Damit stützt Desktop-Virtualisierung zwei weitere Megatrends, was sicher zur Ausbreitung von Mobility und Consumerization beitragen wird.

Die "wesentlichen Antriebsfaktoren für Client-Virtualisierung" liegen IDC zufolge aber vor allem im Einsparpotenzial: Die Kosten bei Administration und Support sowie bei Hardware und Lizenzen könnten durch diese Konzepte sinken. Allerdings gehen die von IDC befragten Unternehmen davon aus, dass sich solche Effekte eher mittel- bis langfristig einstellen. Diese Mittelfristigkeit aber könnte in einer Zeit, in der es um kurzfristige Kostensenkungen geht, durchaus ein Grund für zurückhaltende Investitionsentscheidungen sein, schreibt IDC.

Die Virtualisierung auf dem Desktop hat noch andere als rein finanzielle Gründe: Abhängig vom Benutzertyp, von der Applikation und dem Anwendungsszenario stehen mal die Kosten, mal die Skalierbarkeit, mal die Benutzerfreundlichkeit oder mal die Performance an erster Stelle. Also gibt es nicht die eine Methode der zentralisierten Bereitstellung virtueller Desktops, sondern ein ganzes Füllhorn von Anforderungen und Szenarien.

Checkliste für die Vorbereitung

Zu den Hindernissen bei der Realisierung von Desktop-Virtualisierungsprojekten gehören aber auch mangelnde Zielvorstellungen sowie fehlende Voraussetzungen in den Rechenzentren der Unternehmen. Wer in seiner Organisation mit Desktop-Virtualisierung beginnen möchte, sollte eine Checkliste erstellen und sich zunächst den grundsätzliche Fragen widmen, rät Lösungsspezialist Matrix42.

Dabei sollten die IT-Abteilungen analysieren, für welche Mitarbeiter des Unternehmens ein VDI-Modell sinnvoll ist und für welchen Mitarbeiter andere Desktop-Virtualisierungsmethoden einzusetzen sind. Nicht für jeden Angestellten und nicht jeder Prozess eignet sich das gleiche Modell. Zudem gelte es zu berücksichtigen, dass immer mehr Mitarbeiter mobile Arbeitsmöglichkeiten, in der Konsequenz auch mit privat genutzten Computern, bevorzugen würden.

Schließlich können virtuelle Infrastrukturen auch in traditionellen Desktop-Umgebungen sinnvoll, weil kostengünstiger, sein. Hier ist es aber wichtig, auch daran zu denken, dass die Anwender Thin- oder Zero-Clients im Unterschied zu herkömmlichen PCs mit Vollausstattung akzeptieren. Unzufriedene Benutzer könnten sonst virtualisierte Arbeitsplätze ablehnen und Virtualisierungsprojekte damit zum Scheitern bringen.

Hier spielt der Faktor Performance natürlich eine entscheidene Rolle: Ist der Zugriff auf beispielsweise zentrale VDI-Desktops zu langsam, leidet die Akzeptanz der Benutzer. Das gilt im besonderen Masse auch für Mitarbeiter in Außenstellen, die auf zentrale Ressourcen zugreifen wollen. Hohe Latenzen verzögern die Anwendungs-Übertragung, Mitarbeiter in Niederlassungen oder remote müssen warten, sind unproduktiv und frustriert.

VDI bedeutet zwar weniger Aufwand für Administration und Support von Desktop-Umgebungen. Es müsse aber klar sein, schreibt Matrix42, "dass die Umstellung auf virtuelle Desktop-Umgebung nicht automatisch den Verzicht auf ein entsprechendes Management bedeutet". Daher ist es wichtig, dass die Unternehmen die Management- und Administrationsanforderungen in der Planung und bei der Berechnung des ROI berücksichtigten.

Ohne Know-how über Speicher, Bandbreiten, Server- und Netzinfrastruktur geht es ebenso wenig wie ohne das Wissen um die Anforderungen an funktionale Desktops. Zudem werden für absehbare Zeit virtuelle und physische Desktops nebeneinander her existieren, entweder, weil die Unternehmen vor einer vollständigen Umstellung zurückschrecken oder weil es die Notwendigkeit dafür nicht gibt.

Zentralisierung der IT

Klar ist: In den Rechenzentren der Unternehmen sind bestimmte Schritte nötig, um für den Aufbau virtueller Desktop-Umgebungen gerüstet zu sein. Dazu gehören weitgehende Standardisierung und Automatisierungen sowie die Zentralisierung von IT-Leistungen. Je weniger sich die Rechenleistung eines Unternehmens auf den Arbeitsplätzen, in Niederlassungen und Zweigstellen befindet, desto einfacher ist es, diese Kapazitäten zentral zu administrieren und zu verwalten. Zentralisierung erleichtert das Management der Umgebungen, erhöht die Sicherheit und senkt die Betriebskosten.

Bei Unternehmen, die in jüngster Zeit durch Mergers & Acquisitions gewachsen sind, ist eine solche Zentralisierung durchaus ein größeres strategisches Projekt - völlig unabhängig von eventuellen VDI-Projekten, aber notwendig auf jeden Fall.

Je mehr die Arbeitsleistung der Mitarbeiter am Schreibtisch oder im mobilen Einsatz von leistungsfähigen Systemen im Rechenzentrum abhängt, desto wichtiger ist die Rolle der Netzwerkinfrastruktur. Sind Desktop-Applikationen oder Firmendaten aufgrund überlasteter Server, langsamer oder ausgefallener Netzzugänge nicht verfügbar, murren im einfachsten Fall die Mitarbeiter. Im schlimmsten Fall liegen ganze Geschäfts- und Entscheidungsprozesse lahm, wenn die VDI nicht funktioniert wie sie soll.

End-to-End-Betrachtung beinhaltet Endgerät, Netzwerk und Server

Um die Anforderungen des Unternehmens an die Netzwerkinfrastruktur für virtuelle Desktops genauer fassen zu können, kann eine End-to-End-Betrachtung der einzelnen Bestandteile helfen. Auf der einen Seite der Kette steht das Client-Gerät - Thin oder Zero, Smartphone oder Tablet oder auch ein "traditioneller" Desktop-Rechner. Am anderen Ende laufen die Daten- und Applikations-Server. Dazwischen vermitteln LAN- oder WAN-Verbindungen mit unterschiedlichen Protokollen und Sicherheitsvorkehrungen.

Bei der Bewertung der richtigen Lösungen sind alle kritischen Fragen nach Verfügbarkeit, Performance, Latenz, Datensicherheit und Compliance zu beantworten. Ansätze für die Optimierung der Netzwerkinfrastruktur bieten alle Punkte, an denen diese Fragen nicht oder nur unzureichend beantwortet werden können.

Reicht zum Beispiel die Leistungsfähigkeit des Endgerätes für die Anforderungen nicht aus, muss hier nachgebessert werden. CPU-Power und Arbeitsspeicher auf Server-Seite müssen der Zahl der gehosteten virtuellen Desktops entsprechen, um hier Engpässe und Überlasten zu vermeiden. Schließlich ist es für den Erfolg virtueller Umgebungen unerlässlich, ausreichende Bandbreiten zur Verfügung stellen zu können, die das schnelle und verlässliche Laden von Daten und Anwendungen sichert. Ausfälle oder Latenzen müssen dabei möglich vermieden werden.

Das alles ließe sich mit maximalen Speichergrößen und Bandbreiten leicht absichern. Dennoch ist das keine gute Option, weil hier wesentlich mehr Geld als tatsächlich nötig eingesetzt werden müsste. Die passende Dimensionierung von Server- und Netzwerkinfrastruktur erfordert daher den Einsatz intelligenter Werkzeuge und die Arbeit mit Optimierungs-Tools.

TCP-Optimierung

Das Transmission Control Protocol (TCP) steuert den Datenverkehr im Internet. Durch Redundanzen arbeitet TCP weitgehend ausfallsicher, ist aber nicht auf moderne Anforderungen an Geschwindigkeit und Echtzeittransport von Daten ausgelegt. WAN-Beschleuniger sorgen dafür, dass die Datenübertragung via TCP beschleunigt wird.

Protokolloptimierung

TCP/IP ist nur eines der Protokolle, die in Netzwerken für die Datenübertragung verwendet werden. Für den Fernzugriff auf zentral gehostete, virtuelle Desktops gibt es zum Beispiel das HDX-Protokoll, das speziell dafür konzipiert wurde, auch unter widrigen WAN-Bedingungen und bei der Übertragung großer Video- und Audiodateien ein flüssiges Arbeiten auf dem Desktop zu ermöglichen.

Die bereits erwähnten WAN-Beschleuinger greifen zudem in die umständliche und oft "geschwätzige" Kommunikation anderer Protokolle wie CIFS oder MAPI ein. Der Beschleuinger sorgt dafür, dass Sender und Empfänger schneller "zur Sache" kommen, also Daten austauschen.

QoS-Management

Mit Tools für Quality of Service (QoS) kann man im Netzverkehr Prioritäten für bestimmte Datenströme, Protokolle und Anwendungen setzen. Höherwertiger Traffic, zum Beispiel geschäftskritische Anwendungen, werden bei der Übertragung vorrangig behandelt.

Deduplizierung

Bandbreiten kann man nie genug haben, heißt es. Um aber auch mit vorhandenen, oft schmalbandigen Anbindungen zu arbeiten, gibt es Tools zur Optimierung der versendeten Daten. Auch hier leisten WAN-Beschleuniger ihre Arbeit, etwa beim Deduplizieren von Daten. Bei der Deduplizierung werden bereits übertragene Bit-Muster im Cache des WOCs (WAN Optimization Controller) gespeichert. Bei einer erneuten Übertragung werden dann nur noch Platzhalter übermittelt. Bei einer nur leicht veränderten Datei werden also vor allem diese Platzhalter ausgetauscht, was das Volumen der übertragenen Daten drastisch verringert.

Application Delivery Controller

Wenn viele Anwender von virtuellen Desktops aus auf Daten- und Applikations-Server im Netz zugreifen, ist eine flexible Lastverteilung (Load Balancing) der Anfragen erfolgskritisch. Ein Application Delivery Controller (ADC) fragt kontinuierlich die Verfügbarkeit und die Auslastung der Backend-Server ab und leitet eingehende Anfragen an den jeweils schnellsten verfügbaren Server weiter.

Gleichzeitig nehmen ADCs den Backend-Servern manche rechenintensive Aufgabe ab ("Offload"), etwa den Auf- und Abbau verschlüsselter SSL-Verbindungen. Die Netzwerk-Appliances sorgen somit für eine ständige Verfügbarkeit von Servern und Services, was eine Grundvoraussetzung für die Erreichbarkeit von zentralen, virtualisierten Anwendungen und Desktops ist. Fallen Ressourcen im Backend aus, werden die Benutzer-Anfragen an andere Server oder gar Rechenzentren weitergeleitet. Lastspitzen werden somit "verdaut", Benutzer-Anfragen werden an die Server weitergeleitet, die am wenigsten ausgelastet oder örtlich nah am Benutzer sind.

Citrix-Lösungen für performante Netze

Der Virtualisierungsspezialst Citrix bietet neben den Virtualisierungslösungen XenDesktop, XenApp und XenClient eine ganze Reihe von Technologien und Tools für eine leistungsfähige Netzwerkinfrastruktur in virtualisierten Umgebungen an.

Citrix HDX ist auf Protokollebene für eine ganze Reihe von Beschleunigungs- und Optimierungsmechanismen für Fernzugriffe zuständig. HDX bietet dafür die so genannte adaptive Orchestration: Je nach den aktuellen Netzbedingungen nutzt HDX unterschiedliche Optimierungstechniken, um das jeweils beste Ergebnis zu erzielen.
Citrix HDX

Citrix Branch Repeater übernimmt zahlreiche Aufgaben im Zusammenhang mit der Beschleunigung des Datenverkehrs im WAN. Branch Repeater sorgt für die optimale Nutzung bestehender Bandbreiten, minimiert die Auswirkungen der Netzwerk-Latenz bei derDatenübertragung und sorgt so für schnellen Zugriff auf zentrale Ressourcen, Anwendungen und Desktops für Remote-Benutzer.
Citrix Branch Repeater

Citrix Access Gateway regelt die Zugangskontrolle ins Unternehmens-Netz sowie die Verschlüsselung der Daten über SSL. So ist eine detaillierte Zugriffskontrolle auf Anwendungsebene möglich, für Anwender wird zuverlässiger Fernzugriff von jedem Ort ermöglicht.
Citrix Access Gateway

Citrix NetScaler entlastet Anwendungs- Web,- und Datenbank-Server, sorgt für Anwendungs-Beschleunigung und verbessert so die Performance und auch die Sicherheit von Anwendungen und Services. Die Lösung kombiniert effektives Load Balancing mit Content-Switching, Datenkomprimierung, Content-Caching, SSL-Beschleunigung und Netzwerkoptimierung.
Citrix NetScaler