Die wichtigsten Trends für 2011

Die Zukunft der Virtualisierung

25.05.2011 von Andrej Radonic
Virtualisierung ist eine Schlüsseltechnik für 2011. Doch viele Installationen schöpfen das Potenzial zur Effizienzsteigerung und Kostenersparnis noch nicht aus.
Foto: Fotolia, Nmedia

Gebetsmühlenartigen weisen Experten auf die Vorteile der Virtualisierung hin. Zwar haben viele Anwender entsprechende Techniken im Einsatz, doch sie reizen die Installationen noch nicht hinsichtlich Einsparmöglichkeiten Effizienz und Flexibilität aus. Fünf Thesen über die aktuelle Bedeutung von Virtualisierungstechnologien für Unternehmen sollen den aktuellen Praxiseinsatz einordnen und auf Verbesserungsbedarf bei der Server-, Speicher, Desktop- und Applikationsvirtualisierung sowie dem Cloud Computing hinweisen.

CW-Studie Cloud Computing

Cloud Computing ist definitiv eines dieser schwer greifbaren Modethemen, die uns die IT-Hersteller unablässig in ihren Marketing-Broschüren andienen. Alles heiße Luft? Doch weit gefehlt: finden Sie heraus, wie große Unternehmen wie BMW, Volkswagen, Lufthansa oder Siemens Cloud Computing für sich entdeckt haben, wie sie sich mit Chancen und Grenzen der Cloud beschäftigen und Antworten auf Sicherheits- und Compliance-Fragen finden.

Die COMPUTERWOCHE Marktstudie Cloud Computing im CW-Online-Shop.

These 1: Die zweite Virtualisierungswelle steht noch bevor

Virtualisierungstechnologien haben eine Revolution in der IT bewirkt. Zwei Hauptfaktoren haben sie zum festen Bestandteil in der Planung von IT-Infrastrukturen gemacht: die Basistechnologien für Virtualisierung sind zur Reife gelangt, woraus eine großen Produktauswahl für die Anwender hervorgegangen ist; zugleich sind die Rechnerkapazitäten durch Multicore-Server so stark gestiegen, dass diese ohne geeignete Techniken gar nicht ausgelastet werden können.

Enormes Rationalisierungspotential

Unternehmen verschenken viel Potenzial, wenn sie ihre Server nicht virtualisieren. Durch die höhere Auslastung der Rechner werden Hardware- und Energiekosten sowie Raum in nennenswertem Maß eingespart, so dass IT-Verantwortliche an Server-Virtualisierung nicht vorbeigehen können.

Die Server-Virtualisierung erlaubt das parallele Ablaufen mehrerer Betriebssysteme auf einem Rechner. Mittels hardwareseitiger Komponenten und einer auf Software basierenden Abstraktionsschicht erfolgt eine logische Partitionierung der Server-Hardware.

in zehn schritten zur Server-Virt.
Ratgeber
Diese Schritte haben sich in der Praxis bewährt.
Schritt 1
Ziele und Strategien festlegen: Nicht immer stehen eine bessere Auslastung der IT und niedrigere Kosten ganz oben auf der Agenda. Vielen Unternehmen geht es schlicht darum, den IT-Wildwuchs einzudämmen.
Schritt 2
Quick-Wins mit einem schnellen Return on Investment (RoI) zuerst angehen. (Bild: Fotolia)
Schritt 3
Betriebsprozesse anpassen: Dieser Aspekt wird oft unterschätzt. Die Virtualisierung verändert etwa das Aufgabenfeld der Administratoren. (Bild: Messer Industriegase)
Schritt 4
Schulungen organisieren, Disziplin einfordern: Ohne ausreichendes Know-how und klare Regeln entsteht schnell ein Wildwuchs virtueller Maschinen.
Schritt 5
IST-Zustand analysieren: Eine genaue Bestandsaufnahme der vorhandenen IT-Komponenten sollte Grundlage jeder Server-Virtualisierung sein. (Bild: Fotolia)
Schritt 6
Workload Assesment und Sizing: Nicht nur die Server-Kapazität ist maßgeblich. IT-Manager müssen auch die Storage- und Netzwerk-Anforderungen im Auge behalten.
Schritt 7
Scale-up oder Scale-out? - Soll die Rechenlast auf einen großen oder viele kleine Server-Systeme verteilt werden ?
Schritt 9
Lizenzfragen klären: Das Management unterschiedlicher Lizenzmodelle kann in vitrualisierten Umgebungen sehr komplex werden.
Schritt 10
Altsysteme abschalten: Die Sparpotenziale der Virtualisierung lassen sich nur dann voll ausschöpfen, wenn alte IT-Systeme nach dem Projekt auch tatsächlich ausrangiert werden.

Der Ansatz erlaubt eine einfache Installation und Nutzung bei gleichzeitiger hoher Auslastung der verfügbaren Hardware, was insbesondere bei aktuellen Servern mit Quad- und Hexacore-CPUs von Interesse ist. Virtuelle Server lassen sich schnell installieren, wiederherstellen und zwischen Rechnern verschieben, zum Beispiel in Wartungsfenstern oder zur Lastverteilung. Somit eignet sich Virtualisierung ausgezeichnet für eine Verbesserung der allgemeinen Verfügbarkeit in der IT. Werden virtuelle Maschinen (VMs) zwischen verschiedenen Rechenzentren beziehungsweise Standorten repliziert, gewinnt man gleichzeitig eine sehr zuverlässige Infrastruktur für das Disaster Recovery und damit eine stark verbesserte Business Continuity.

Ist die Revolution stecken geblieben?

Umso überraschender ist es, dass die Anwender die Virtualisierung nur zögerlich annehmen, darauf weisen zumindest die Marktzahlen hin. So wurden zwar laut IDC immerhin 17,7 Prozent aller neuen Server in Europa im vierten Quartal 2009 mit Virtualisierungstechniken ausgeliefert. Bis 2013 erwarten die Marktforscher eine Steigerung auf 23 Prozent. Die optimistischen Prognosen von 2008, die einen Virtualisierungsgrad von 75 Prozent bezogen auf die gesamten IT-Installationen vorhersagten, wurden bislang weit verfehlt. Derzeit wurde laut Gartner erst 25 Prozent der verfügbaren IT virtualisiert (siehe CIOs zögern bei Virtualisierung). Doch das dürfte sich ändern, denn viele die CIOs führen die Themen Virtualisierung und Cloud Computing auf den ersten beiden Plätzen ihrer To-do-Listen für 2011, das hat Gartner in einer Umfrage aus dem Jahr 2010 herausgefunden. Der eigentliche Durchbruch auf breiter Front steht also noch bevor.

These 2: Ein Hypervisor macht noch keine moderne IT-Umgebung

Stellt sich die Frage, warum die Erneuerung der IT bislang stecken geblieben ist. Das Angebot ist da, es reicht von umfassenden Lösungen bis hin zu kostenlosen Produkten und Open-Source-Projekten. Sie erlauben es, eine stabile und zuverlässige virtualisierte Umgebung aufzubauen. Die Erkenntnis setzt sich durch, dass Technik - also der Hypervisor - allein noch keine Revolution im Rechenzentrum bewirken und quasi im Vorbeigehen Kosten sparen kann.

Hypervisor

Im Server-Umfeld hat sich die Hypervisor-Technik vom Typ 1 durchgesetzt, bei der die Virtualisierungsschicht direkt oberhalb der Hardware ("bare metal") und nicht auf einem Betriebssystem läuft. Hypervisor vom Typ 2 laufen als Applikation im Betriebssystem und werden wegen ihrer geringeren Effizienz eher auf Endgeräten genutzt.

Chancen und Stolperfallen

Während die Abkoppelung der Server von der Hardware erhebliche Vereinfachungen und mehr Flexibilität mit sich bringt, steigen die Anforderungen an intelligentes Management und Automatisierung der neuen Umgebung. Außerdem ergeben sich neue Hindernisse, was dazu führt, dass viele Projekte in der Evaluationsphase stecken bleiben oder Virtualisierung eher in Test- und Laborszenarien eingesetzt wird:

• Die Leichtigkeit, mit der Server in virtuelle Maschinen verlagert werden, lässt den Administrationsaufwand steigen, weil plötzlich viel mehr (virtuelle) Server vorhanden sind.

• Das Management virtueller Umgebungen stellt geänderte Ansprüche. Neue Möglichkeiten wie flexibles Provisionierung, Bereithaltung von Images, Migration von VMs von einem Rechner zum anderen erfordern entsprechende Werkzeuge und neue Policies, mit denen die Kontrolle über das Gesamtsystem gewährleistet werden kann.

• Je nach Applikationen, Betriebssystemen und Hypervisor-Hersteller können Lizenzkosten die Kosten treiben. In jedem Falle sollten im Vorfeld entsprechende Kalkulationen betrieben werden.

• Die Anforderungen an die Gesamtausstattung steigen: Virtualisierte Umgebungen fassen viele Server auf wenig Hardware zusammen. Dies impliziert, dass viele Server von einem Rechnerausfall betroffen sind. Damit steigen die Anforderungen an die Hochverfügbarkeit. Die Installation benötigt als Grundlage Shared Storage in Form eines SANs (Storage Area Network), meist auf Basis von Fibre Channel oder iSCSI-Techniken. Das SAN muss ebenfalls hochverfügbar ausgelegt sein.

• Während HA-Mechanismen (High Availability) die Betriebssicherheit insgesamt erhöhen, bietet die zusätzliche Hypervisor-Softwareschicht potenziell neue Angriffsflächen für Angriffe auf die System- und Datensicherheit.

Angesichts dieser Herausforderungen haben sich stufenweise betriebene, Virtualisierungsprojekte bewährt, in deren Rahmen zunächst Testsysteme sowie weniger geschäftskritische Systeme virtualisiert werden. Entscheidend ist der langfristige Auf- und Ausbau einer tragfähigen Management-Umgebung mit Hochverfügbarkeit und Automatisierung auf Basis von Shared Storage.

Zuverlässige Technik ist verfügbar

Die drei Marktführer VMware (ESX, ESXi), Citrix (XenServer), Microsoft (Hyper-V) bieten ein Lösungsportfolio mit einem hohen Reifegrad. Schon seit einigen Jahren geben die großen Hersteller dabei ihre Einsteigerprodukte kostenlos ab. Oberflächlich betrachtet wird der Einstieg in die Server-Virtualisierung damit äußerst kostengünstig. Anwender sollten jedoch die Einschränkungen kennen und die Folgekosten einkalkulieren.

Vor allem VMware und Microsoft positionieren ihre kostenfreien Produkte explizit als Lösungen für Standalone-Server mit den Anwendungsschwerpunkten Testen von Server-Virtualisierung, Aufbau von Entwicklungs- und Testumgebungen und Betrieb weniger kritischer Workloads.

Alle Hersteller lassen sich ihre umfassenden Management-Tools, auf welche die IT in allen größeren Umgebungen zwingend angewiesen ist, immer gut bezahlen. Workload-Management, Server-Lifecycle-Administration, Failover, High Availability, Storage-Management usw. sind Aufgaben, die geeignete Tools benötigen. Dafür gibt es bei Bedarf auch leistungsfähige Werkzeuge von Drittanbietern, welche zum Teil auch Hypervisor-übergreifend arbeiten. Opensource-Produkte wie Xen (Hypervisor in Novell SUSE Enterprise Linux) oder KVM (Hypervisor in Red Hat Enterprise Linux) eröffnen weitere Optionen.

These 3: Storage-Virtualisierung ist der nächste logische Schritt

Server-Virtualisierung kann nicht gelingen ohne ein ausgefeiltes Storage-System. Lokaler Festplatten-Speicher genügt dabei nicht den Anforderungen an Hochverfügbarkeit, dynamischer Lastverteilung und hochgradiger Automatisierung. Shared Storage ist daher unabdingbare Voraussetzung. Speichersysteme müssen zuverlässig, ausfallsicher und flexibel sein. Sie müssen aber auch Kostenkontrolle bieten, denn gerade in virtualisierten Server-Umgebungen kann der Speicherbedarf explodieren. Gefragt sind Konzepte zur effizienten Speichernutzung sowie zur transparenten Integration verschiedener Systeme auch unterschiedlicher Hersteller zu einem Gesamtsystem.

das Leben von morgen
Wie IT das Leben von morgen bestimmt
IT-Tools in Autos verhindern Unfälle, Virtualisierung rettet die Natur und Netzwerke ersetzen Unternehmen. Die Analysten von McKinsey stellen zehn Technik-Trends vor und erklären, wie sie die Welt verändern.
1. Unternehmen schaffen gemeinsam mit ihren Kunden Wert:
Angefangen hat Cocreation in der IT-Branche mit der Open Source-Bewegung, bald wird es Mainstream sein, so McKinsey. Der neue Fachbegriff umschreibt das Phänomen, wonach Kunden sich gegenseitig beraten und unterstützen. Unternehmen machen sich das zu Nutze.
2. Das Netzwerk entwickelt sich zum Unternehmen:
Multinationale Konzerne müssen die Skills ihrer Mitarbeiter über interne und externe Grenzen hinweg nutzen. Andernfalls verschenken sie Potenzial.
3. Skalierbare Collaboration:
In einer Informations- und Wissensgesellschaft wächst die Zahl der "Kopfarbeiter" stärker als die der Fließband-Arbeiter. Unternehmen kommen nicht mehr ohne Instrumente wie Blogs und Wikis aus. Sie müssen aber auch fähig sein, diese zu managen.
4. Das Internet erobert die physische Welt:
Beispiel dafür, wie das Internet virtuelle Grenzen überschreitet, ist die Automobilbranche mit ihrer Embedded Software. Wie die Analysten schreiben, sollen beispielsweise vernetzte Sensoren künftig helfen, Unfälle zu vermeiden.
5. Die Datenmenge wächst und wächst und wächst…:
Derzeit verdoppelt sich die kursierende Datenmenge etwa alle 18 Monate, so McKinsey. Der "Big Data"-Trend werde sich auch nicht abschwächen. Unternehmen müssen Daten so organisieren, dass sie konkreten Nutzen davon haben.
6. Technik für Nachhaltigkeit:
Entscheider kommen am Umweltschutz nicht mehr vorbei. Virtualisierung und "grüne" Rechenzentren sollen helfen, Emissionen zu reduzieren.
7. Alles-as-a-Service:
Nicht nur Software, auch Infrastruktur, Plattformen und Inhalte jeder Art werden künftig "as a Service" verfügbar sein, so McKinsey. Auch dieser Trend geht über virtuelle Welten hinaus: Die Analysten beobachten steigendes Interesse an Angeboten wie Car-Sharing.
8. Mehr Umsatz von dritter Seite:
Unternehmen werden immer öfter Geld mit Zielgruppen umsetzen, an die sie jetzt noch gar nicht denken.
9. Innovationen in aufsteigenden Märkten testen:
Die IT ermöglicht etablierten Unternehmen das Testen innovativer Modelle. McKinsey nennt als Beispiel den Telekommunikations-Anbieter Safaricom, über den Einheimische Mobile Banking abwickeln können.
10. Veränderungen im öffentlichen Raum:
Derzeit lebt jeder zweite Mensch in einer Stadt - bis 2050 sollen es sieben von zehn Menschen sein. Ohne IT zur Steuerung der Verkehrssysteme, ohne Überwachung öffentlicher Plätze (inklusive Analyse der Daten, um Gefahrenzonen zu identifizieren) wird es nicht mehr gehen.

Diese Anforderungen lassen sich nur mit Storage-Virtualisierung realisieren, die systemübergreifend eine zusätzliche Softwareschicht einzieht. Zugreifende Systeme und Anwendungen werden dadurch von der Hardware getrennt. Dies hat viele wichtige Effekte, denn so lassen sich logischer Speicherbereiche (LUNs) einrichten, Plattenkapazitäten erweitern und Daten ohne physische Eingriffe migrieren. Viele Management-Prozesse laufen unterbrechungsfrei. Ebenso wie die Server-Virtualisierung erhöht Storage-Virtualisierung die Zuverlässigkeit bis hin zur Hochverfügbarkeit und lastet die Speicher erheblich besser aus.

Wichtige Funktionen der Storage-Virtualisierung

  • Thin Provisioning: Diese Storage-Technik speichert nur Änderungen an einer virtuellen Maschine.

  • Dynamic Provisioning: Das Verfahren legt Speicherplatz erst dann an und weisen ihn zu, wenn er tatsächlich benötigt wird.

  • De-Duplizierung: Die Funktion eleminiert die doppelt angelegte Inhalte (wie zum Beispiel). Damit lassen sich in VMs bis zu 50 Prozent Speicherplatz einsparen. Gerade VM-Backups verschlingen viel Platz, wobei viele Dateien identisch sind.

  • Backup: Spezialisierte Backup-Techniken mit kleiner Granularität und "Kenntnis" der VM-Image-Struktur vermögen ebenfalls viel Speicherplatz zu sparen sowie Backup- und Wiederherstellungsprozesse stark zu beschleunigen.

These 4: Desktop-Virtualisierung nur betriebswirtschaftlich angehen

Trotz vieler Herausforderungen und noch verbesserungswürdiger Durchdringung in der aktuellen IT-Landschaft ist die Server-Virtualisierung eine akzeptierte Technik, die viele Unternehmen auf dem Radar ihrer anstehenden Investitionen haben. Zunehmend rückt darüber hinaus die Virtualisierung von Desktops in den Fokus der IT-Verantwortlichen. Denn auch hier locken ähnliche Vorteile wie für die Server.

Statt Arbeitsplatz-Rechner immer wieder auf neue Betriebssystem-Versionen zu aktualisieren, was häufig auch mit neuer Hardware verbunden ist, bietet sich ein zentralisiertes Modell an, bei dem die Desktops virtualisiert im Rechenzentrum gehostet werden. So raten Experten, im Rahmen einer Windows-7-Umstellung die gesamte Desktop- beziehungsweise PC-Strategie im Unternehmen zu überdenken. Der Umstieg von physische auf virtuelle Desktops kann eine echte Alternative sein, die sich allerdings zumeist nur langfristig als sinnvolle Investition erweisen kann.

IT-Stretagien der Zukunft
7 Ratschläge für die IT der Zukunft
Unternehmen müssen über die Zukunft der IT-Plattform nachdenken. Die Frage ist, ob die bestehenden Architekturen für das künftige Geschäft ausreichen.
1. Flexibiltät ist der Schlüssel
Die altbewährten Fünf-Jahres-Pläne für die IT sind schon lange nicht mehr sinnvoll. Die Notwendigkeit Plattformen regelmäßig zu verändern, wirkt sich unter anderem auf die Energieverteilung und die Kühlung von Rechenzentren aus. Der Wechsel von einer Plattform zur anderen hat direkte Auswirkungen auf das Geschäft.
2. Cloud Computing ist keine Mode-Erscheinung
Der Hype um Cloud Computing war etwas übertrieben. Dennoch darf nicht ignoriert werden, dass die Implementierung die Unternehmen in den kommenden Jahren stressen wird. Sie müssen bestimmen, wo Workloads am besten verwaltet werden und wie sie von vorhandenen Architekturen in private, öffentliche und Hybrid-Cloud-Umgebungen umziehen.
4. Die existierende Plattform verbessern
Wenige Unternehmen sind vollkommen unbelastet. Die IT und die dazugehörige Ausstattung bestehen bereits und es muss in ihre Optimierung investiert werden. Wichtig ist der Aufbau eines nicht-invasiven Modells auf etwas, was schon besteht.
5. Modellierung ermöglicht ein besseres Verständnis über PUE und CRC
Die Entscheidung der britischen Regierung für ein CRC-Gesetz (Carbon Reduction Commitment) hat dazu geführt, dass der Kohlenstoffausstoß kontrolliert werden muss. Unternehmen sollten sicherstellen, dass sie genau wissen, wie sich der Kohlenstoffausstoß bei jeglichen Veränderungen verhält.
6. Die passende IT für das Geschäftsrisikoprofil
Wichtig ist, dass Unternehmen sich ein vollständiges Bild über die IT zusammen mit den Abhängigkeiten zwischen IT und Rechenzentrums-Anlagen machen. Ist das gelungen, kann das Geschäft besser unterstützt werden.
7. Mit Kostenmodellen fundierte Entscheidungen treffen
Die Budgets stehen nicht nur bei der IT, sondern in allen Geschäftsbereichen unter starkem Druck. Aus diesem Grund müssen Unternehmen in der Lage sein, ihre Entscheidungen über eine Reihe von Variablen treffen zu können.

Laut Bitkom wächst der Markt für Desktop-Virtualisierung in Deutschland in diesem Jahr um rund 13 Prozent. Die Analysten von Gartner prognostizieren für das Jahr 2013 ein weltweites Marktvolumen von 65 Milliarden Dollar für PC-Virtualisierung - das wären 40 Prozent des Marktes für professionell genutzte PCs. Nicht umsonst gehören Desktop-Virtualisierung und Cloud Computing damit zu den wichtigsten IT-Trends 2011.

Verschiedene Konzepte sind im Einsatz

Desktop-Virtualisierung wird heutzutage oft gleichgesetzt mit VDI (Virtual Desktop Infrastructure). Dieser Ansatz verlagert physische PC-Desktops in virtuelle Maschinen auf einigen wenigen Servern, wo sie zentralisiert betrieben werden. Damit vereinfacht VDI das Management, erhöht die Sicherheit und die Verfügbarkeit der Systeme und spart Kosten bei Betrieb und Hardware. Zudem verbessert sich die Flexibilität der gesamten IT, indem neue Desktops in Sekundenschnelle bereitgestellt werden können, wenn Mitarbeiter eingestellt werden oder für kurzfristig spezielle Aufgaben müssen.

Virtuelle Desktops gibt es schon lange. Der gute alte Terminal-Server ermöglicht seit Jahren den remote Zugriff auf zentral betriebenen Server-Desktops, die meist in Farmen betrieben werden. Unter anderem Citrix hat mit XenApp die entsprechenden Remote-Techniken verbessert. Diese Art der Zentralisierung hat allerdings den entscheidenden Nachteil, dass Desktops und Applikationen mit anderen Benutzern geteilt werden müssen. Treten Probleme auf, können diese Auswirkungen auf andere User haben. Eine individuelle Umgebung lässt sich nicht oder nur in engen Grenzen bereitstellen.

Sonderform virtualisierter Client Desktop

Einige Hersteller setzen auf einen Client-zentriert Ansatz: Die virtuelle Maschine mit dem Desktop-System wird auf Basis eines Baremetal-Hypervisors auf dem Endgerät ausgeführt. Damit steht dort Typ-1-Virtualisierung zur Verfügung, die direkt auf der Hardware aufsetzt, hohe Performance ermöglicht und eine sehr sichere Separierung der einzelnen Virtuellen Maschinen (VM) garantiert.

Der eigentliche Clou liegt darin, virtuelle Maschinen auf den mobilen Clients auch offline betreiben zu können - im Gegensatz also zu klassischen VDI-Szenarien, die eine permanente Online-Verbindung voraussetzen. Dieses Konzept adressiert vornehmlich Laptop-User in größeren Unternehmen. Geschäfts- und private VMs können z.B. mit Citrix XenClient oder VMware View Local Mode (Hypervisor Typ 2) völlig isoliert voneinander auf demselben Gerät laufen.

VDI räumt mit diesen Nachteilen weitgehend auf, indem sie die Client-Installation in virtuelle Maschinen auf dem Server verlagert. Der Benutzer greift von einem Endgerät (Thin Client, PC) auf seinen Desktop über ein Remote Display Protocol zu, wie es vom Server Based Computing (zum Beispiel Terminal-Server, Citrix Presentation Server, Tarantella) bekannt ist. Zu den wichtigsten Protokollen zählen RDP von Microsoft, ICA von Citrix, ALP von Sun sowie PCoIP (PC-over-IP). Neben dem Protokoll für die Interaktion mit dem entfernten Desktop gehören zudem ein Hypervisor, ein Connection Broker sowie Management-Werkzeuge zu einer vollständigen VDI-Lösung.

Gegenüber anderen Varianten der Desktop-Virtualisierung wie etwa dem Terminal Server hat VDI den großen Vorteil, dass sich individuelle Arbeitsumgebungen besser abbilden lassen, da jeder Mitarbeiter seine eigene Installation in Form einer separaten und privaten Virtual Machine (VM) erhält, die sich im wesentlichen identisch zu einem physischen Desktop verhält.

Probleme gibt es inklusive

Bislang ist die praktische Umsetzung von VDI jedoch aufwändig und bleibt daher noch den großen Unternehmen vorbehalten. Die wesentlichen Hindernisse sind:

• Hohe Anfangskosten: Kostentreiber ist vor allem der benötigte zentrale Netzwerkspeicher (SAN) mit den zugehörigen Hochleistungsnetzwerken. Allein die Kosten hierfür können bis zu 50 Prozent der Gesamtkosten ausmachen. Analysten gehen davon aus, dass in vielen Fällen mit dem Return on Investment (RoI) erst nach mindestens drei Jahren zu rechnen ist. Forrester Research hat ermittelt, dass Unternehmen etwa 605 Euro pro Anwender für ein Desktop-Virtualisierungsprojekt ausgeben. In vielen Fällen ist daher für kleine und mittelständische Unternehmen VDI noch zu teuer beziehungsweise unwirtschaftlich.

• Hohe Komplexität: In der Regel bedarf es einer Fülle von Komponenten und Diensten, um eine VDI-Umgebung aufzusetzen. Dazu gehören etwa Shared Storage, Loadbalancing, Hochverfügbarkeit, Connection Broker usw.

• Benutzererfahrung: Viele der verwendete Protokolle schränken die Anwendungsmöglichkeiten für Benutzer ein. Multimedia-lastige Anwendungen oder der Einsatz von VoIP an virtuellen Arbeitsplätzen scheiden zum Teil aus. Ein weiterer Nachteil ist die fehlende Möglichkeit zur Offline-Nutzung des virtuellen Desktops.

Im ungünstigen Falle verursachen virtualisierte Desktops sogar höhere Kosten als die alte Fat-Client-Armada, wobei dann unter Umständen obendrein noch die Probleme der konventionellen Desktop-Umgebung ins Data Center verlagert werden. Zu bedenken ist, dass eine Desktop-VM fast vollständig einem physischen Client entspricht und wie dieser Virenschutz, Updates und Wartung benötigt. Auch Standard-Anwendungen können Probleme bereiten, wenn sie zum Beispiel zwar Windows 7 fähig sind, jedoch nicht (optimal) über ein Remote Protokoll funktionieren.

Auf den ersten Blick profitieren von dem Konzept vornehmlich große Unternehmen, die viele ähnliche Arbeitsplätze haben und bei denen viele Mitarbeiter mehr oder weniger die gleichen Anwendungen nutzen. Dennoch sollten sich die Mittelständler dieser Technik nicht verschließen, denn neben den Lösungen von VMware, Citrix und Microsoft gibt es auch für sie passende Produkte:

• VMware View: Software für Server Hosted Virtual Desktops (SHVD).

• Citrix XenDesktop: Komplettpaket aus XenServer, Delivery Controller und Provisioning Server.

• Microsoft VDI (Standard Suite, Premium Suite): Komplettpaket aus Hyper-V, Management-Tools (unter anderem SCVMM), MDOP mit App-V und Remote Desktop Services (RDS).

• Quest vWorkspace: leichtgewichtige Alternative zu VMware und Citrix

• Red Hat mit RHEV 2.2 und SPICE als eigenem Remote-Protokoll

• Kaviza VDI-in-a-Box als Lösung für kleine und mittlere Unternehmen (KMU)

• Ericom PowerTerm WebConnect ist ebenfalls sine KMU-Lösung

• MokaFive richtet sich an KMUs, um virtuelle Desktops zentral verwalten und lokal ausführen zu können

Schlanke Alternativen

Inzwischen sind alternative VDI-Lösungen auf dem Markt, die sich gezielt der Anforderungen der KMU annehmen. Sie sind kostengünstiger, deutlich weniger komplex und stellen geringere Anforderungen an die Hardware.

Kaviza VDI-out-of-the-box ist ein solches Programm. Besonders hervorzuheben ist die Genügsamkeit bei der Server- und Storage-Ausstattung und die angesichts dessen trotzdem gebotene Hochverfügbarkeits-Versicherung. Da die Anfangs-Kosten vergleichsweise gering sind, rechnet der Hersteller vor, dass sich der Einsatz ab etwa 25 Anwendern beziehungsweise virtuellen Desktops lohnt. Allerdings: An die Administratoren werden trotz allem recht hohe Ansprüche gestellt, da zunächst einmal das Thema Server-Virtualisierung als Basisinfrastruktur (auf Basis von Citrix XenServer oder VMware ESX(i)) gemeistert werden muss.

Applikations- und User-Virtualisierung

Virtualisierte Desktops bringen erst einen wirtschaftlichen Nutzen, wenn die Applikations- und Benutzerverwaltungs-Infrastruktur flexibilisiert und vom eigentlichen Desktop abgekoppelt gespeichert und verwaltet wird. Denn virtuelle Desktops werden auf Basis zentraler Images generiert und bereitgestellt, die für die meisten Anwender identisch sind. Da empfiehlt es sich, neben den Applikationen auch die Benutzerdaten unabhängig zu speichern und dynamisch von zentraler Stelle aus zur Verfügung zu stellen.

Die Virtualisierung von Desktop-Anwendungen kann dabei vor allem die Administration durch installationsfreie Softwareverteilung vereinfachen und Migrationsvorhaben wie Windows 7-Einführungen sicherer gestalten. Die Softwareverteilung erfolgt dabei ohne Installation, dadurch werden Konflikte mit anderer Software sowie Treibern und Inkompatibilitäten mit unterschiedlichen Betriebssystem-Versionen vermieden. Anwendungen werden in einem virtuellen Container auf dem Client-PC ausgeführt, womit die Applikation gegenüber dem Betriebssystem abgeschottet wird. Desktops werden dafür nur mit einem standardisierten Betriebssystem-Image sowie einem Agent für die virtualisierte Softwarebereitstellung versehen.

Der Vorgang ist für den Anwender völlig transparent: Wenn der Benutzer sich anmeldet, erhält er automatisch sämtliche Verknüpfungen zu allen für ihn vorgesehenen Applikationen eingerichtet. Beim ersten Start einer solchen Anwendung wird diese zur Echtzeit vom Server gestreamed. Bei Aktualisierung der zentral gehosteten Applikation erhält der Benutzer-PC automatisch das entsprechende Update.

Produkte für Applikationsvirtualisierung

  • VMware ThinApp;

  • Microsoft App-V;

  • Symantec Altiris SVS.

These 5: Die Cloud braucht noch Zeit

Cloud Computing ist der nächste folgerichtige Evolutionsschritt der Virtualisierung in der Unternehmens-IT. Cloud Computing wird dabei häufig irrigerweise synonym mit Virtualisierung verwendet, meint aber vor allem die automatisierte und standardisierte Bereitstellung abstrahierter IT-Infrastrukturen wie zum Beispiel Rechenkapazität, Datenspeicher, fertige Programmpakete, die ein Anbieter dynamisch an den Bedarf angepasst auf Basis von Virtualisierungstechnologien über ein Netzwerk zur Verfügung stellt. Die Abrechnung erfolgt dabei meist nutzungsabhängig.

So wird die Cloud sicher
Datenschutz und Datensicherheit
Saugatuck hat einen Fragenkatalog zur Security im Cloud Computing zusammen gestellt, den Interessenten Ihrem potenziellen Cloud-Provider vorlegen sollten.
Fachliche Anforderungen
Wie kann der Kunde auf seine Daten zugreifen oder diese wiederherzustellen?
Fachliche Anforderungen
Wie wird Sicherung der Daten einschließlich Disaster Recovery gewährleistet?
Fachliche Anforderungen
Wie, in welchem Format und nach welchen Umständen oder Bedingungen werden bei Vertragsende die Daten des Kunden an ihn übergeben?
Die Technik für Datenschutz und -sicherheit
Sind die Rechenzentren uneingeschränkt, rund um die Uhr, physikalisch und auch nach Mehr-Personen-Prinzip gesichert?
Die Technik für Datenschutz und -sicherheit
Ist es sichergestellt, dass das Personal des Providers weder Zugang zu den Benutzerpasswörtern und Berechtigungen des Anwenders hat noch diese einsehen kann?
Die Technik für Datenschutz und -sicherheit
Werden die Vorschriften zu Passwortrichtlinien, Zugriffsbeschränkungen, Anmeldeprotokollierungen, Datenzugriffsmodellen sowie zum Feldebenenzugriff dokumentiert?
Die Technik für Datenschutz und -sicherheit
Werden alle Passwörter verschlüsselt übertragen?
Die Technik für Datenschutz und -sicherheit
Gibt es ein sicheres Session-Key-Management und besteht eine Multi-Tenant-Datenzugriffskontrolle?
Die Technik für Datenschutz und -sicherheit
Werden Sicherheitsverstöße überwacht? Werden Eindringversuche (Intrusion Detection) und sicherheitsrelevante Vorfälle (Security-Event-Management) dokumentiert?
Transaktionen im Internet
Gibt es eine 128-bit SSL-Verschlüsselung für jede Transaktion?
Transaktionen im Internet
Liegen Verisign-Zertifikate vor?
Transaktionen im Internet
Werden Perimeter und Firewalls ständig überwacht? Sind Intrusion Detection sowie vorausschauendes Log-File-Monitoring Standardverfahren?
Sicherheitsmonitoring
Werden erfolgreiche und fehlgeschlagene Logins dokumentiert?
Sicherheitsmonitoring
Werden Eindringversuche (Intrusion Detection) und sicherheitsrelevante Vorfälle (Security-Event-Management) dokumentiert?
Interoperabilität mit On-Premise-Anwendungen
Welchen Einfluss haben Security-Architekturen und -Praktiken des Cloud-Providers auf die lokalen Installationen des Anwenders?
Interoperabilität mit On-Premise-Anwendungen
Legt der Betreiber der Multi-Tenancy- und Cloud-Plattform die verwendeten Techniken und Abläufe für das Data-Partitioning offen und dokumentiert sie?
Gesetzliche Anforderungen
Ist bei Speicherung von personenbezogenen Daten außerhalb der Grenzen des Europäischen Wirtschaftsraumes ein angemessenes Schutzniveau gewährleistet, wie es das Bundesdatenschutzgesetz vorschreibt (Paragraf 4b Absatz 2 Satz 2 BDSG)?
Gesetzliche Anforderungen
Ist es sichergestellt, dass ausschließlich solche Anwender auf Anwendung und deren Daten zugreifen können, die auch dazu berechtigt sind?
Gesetzliche Anforderungen
Können personenbezogenen Daten bei der Verarbeitung, Nutzung und nach Speicherung nicht unbefugt gelesen, kopiert, verändert oder entfernt werden?
Gesetzliche Anforderungen
Lässt sich nachträglich prüfen und feststellen, ob und von wem personenbezogene Daten in Anwendungssystemen eingegeben, verändert oder entfernt worden sind?
Gesetzliche Anforderungen
Können zu unterschiedlichen Zwecken erhobene personenbezogene Daten getrennt verarbeitet werden?

Ausprägungen der Cloud

Beim Cloud Computing unterscheidet man im Wesentlichen zwischen drei Ausprägungen:

IaaS (Infrastructure as a Service): Die automatisierte Bereitstellung von Applikations-Clustern wie bei Amazon EC2 oder RightScale.

PaaS (Platform as a Service): Die automatisierte Bereitstellung von Programmierumgebungen wie bei Googles App-Engine.

SaaS (Software as a Service): Die automatisierte Bereitstellung von Programmen wie bei Salesforce oder GoogleMail.

Cloud-IT ist ein Megatrend, weil sich auf Basis der darunter liegenden weit entwickelten Virtualisierungstechniken erstmals ein wirklich praktikabler Ansatz eröffnet, IT als Service im Unternehmen zu etablieren. Die Grundidee dabei ist, nur tatsächlich genutzte Dienste auf Basis von SLAs abzurechnen und eine höchstmöglicher Kostentransparenz zu bieten. Zudem ergeben sich nennenswerte Einsparpotenziale, weil nur noch Dienste in Rechnung gestellt werden, die tatsächlich genutzt wurden, weil Nutzer keine eigene Server-Hardware anschaffen müssen und weil die Kosten für Softwarelizenzen sowie das Management sinken. Ein weiterer wesentlicher Vorteil ist die nahtlose Skalierbarkeit der Umgebung in der Cloud.

Doch dem Cloud Computing stehen auch viele Hürden im Wege: so sehen 60 Prozent der in einer Studie von Deloitte befragten Unternehmen Sicherheitsprobleme sowie datenschutzrechtliche Hindernisse, und meiden daher noch die Cloud. Außerdem sind noch nicht überall ausreichende Mechanismen zum Monitoring, Messen und Abrechnen der Services vorhanden.

Unterschiedliche Anbieter sowohl von Betriebssystemen als auch Infrastruktur-orientierten Plattformen bieten inzwischen ihre Lösungen für Cloud Computing an. Jedoch mangelt es bislang gerade für mittelständische Unternehmen an handhabbaren Systemen besonders für den Aufbau privater Clouds. Bislang zeichnet sich als Trend ab, dass im wesentlichen Großunternehmen auf Private Clouds setzen, während KMU sich eher externer Dienste bedienen.

Fazit: Die Server-Virtualisierung ist reif

Die Zeit für Server-Virtualisierung ist auch bei mittelständischen Unternehmen inzwischen mehr als reif. Bei entsprechenden Projekten sollten unbedingt auch Aspekte der Storage-Virtualisierung mit einbezogen werden.

Im Rahmen anstehender Migrationen auf Windows 7 sollten Unternehmen die Chancen und Risiken der Desktop-Virtualisierung analysieren und sich der Langfristigkeit eines solchen Projekts bewusst sein. Für kleine und mittelständische Unternehmen sind inzwischen leichtgewichtige und kostengünstigere Lösung am Markt, um zumindest bestimmten Anwendergruppen flexible Lösungen bereitstellen zu können.

Unternehmen sind in jedem Fall gut beraten, für eine durchgängige Virtualisierung mit automatisierten Prozessen und modularen Desktops zu sorgen, um im Hinblick auf Cloud-Computing-Strategien gut aufgestellt zu sein. (jha)