Gebetsmühlenartigen weisen Experten auf die Vorteile der Virtualisierung hin. Zwar haben viele Anwender entsprechende Techniken im Einsatz, doch sie reizen die Installationen noch nicht hinsichtlich Einsparmöglichkeiten Effizienz und Flexibilität aus. Fünf Thesen über die aktuelle Bedeutung von Virtualisierungstechnologien für Unternehmen sollen den aktuellen Praxiseinsatz einordnen und auf Verbesserungsbedarf bei der Server-, Speicher, Desktop- und Applikationsvirtualisierung sowie dem Cloud Computing hinweisen.
CW-Studie Cloud Computing
Cloud Computing ist definitiv eines dieser schwer greifbaren Modethemen, die uns die IT-Hersteller unablässig in ihren Marketing-Broschüren andienen. Alles heiße Luft? Doch weit gefehlt: finden Sie heraus, wie große Unternehmen wie BMW, Volkswagen, Lufthansa oder Siemens Cloud Computing für sich entdeckt haben, wie sie sich mit Chancen und Grenzen der Cloud beschäftigen und Antworten auf Sicherheits- und Compliance-Fragen finden.
Die COMPUTERWOCHE Marktstudie Cloud Computing im CW-Online-Shop.
These 1: Die zweite Virtualisierungswelle steht noch bevor
Virtualisierungstechnologien haben eine Revolution in der IT bewirkt. Zwei Hauptfaktoren haben sie zum festen Bestandteil in der Planung von IT-Infrastrukturen gemacht: die Basistechnologien für Virtualisierung sind zur Reife gelangt, woraus eine großen Produktauswahl für die Anwender hervorgegangen ist; zugleich sind die Rechnerkapazitäten durch Multicore-Server so stark gestiegen, dass diese ohne geeignete Techniken gar nicht ausgelastet werden können.
Enormes Rationalisierungspotential
Unternehmen verschenken viel Potenzial, wenn sie ihre Server nicht virtualisieren. Durch die höhere Auslastung der Rechner werden Hardware- und Energiekosten sowie Raum in nennenswertem Maß eingespart, so dass IT-Verantwortliche an Server-Virtualisierung nicht vorbeigehen können.
Die Server-Virtualisierung erlaubt das parallele Ablaufen mehrerer Betriebssysteme auf einem Rechner. Mittels hardwareseitiger Komponenten und einer auf Software basierenden Abstraktionsschicht erfolgt eine logische Partitionierung der Server-Hardware.
Der Ansatz erlaubt eine einfache Installation und Nutzung bei gleichzeitiger hoher Auslastung der verfügbaren Hardware, was insbesondere bei aktuellen Servern mit Quad- und Hexacore-CPUs von Interesse ist. Virtuelle Server lassen sich schnell installieren, wiederherstellen und zwischen Rechnern verschieben, zum Beispiel in Wartungsfenstern oder zur Lastverteilung. Somit eignet sich Virtualisierung ausgezeichnet für eine Verbesserung der allgemeinen Verfügbarkeit in der IT. Werden virtuelle Maschinen (VMs) zwischen verschiedenen Rechenzentren beziehungsweise Standorten repliziert, gewinnt man gleichzeitig eine sehr zuverlässige Infrastruktur für das Disaster Recovery und damit eine stark verbesserte Business Continuity.
Ist die Revolution stecken geblieben?
Umso überraschender ist es, dass die Anwender die Virtualisierung nur zögerlich annehmen, darauf weisen zumindest die Marktzahlen hin. So wurden zwar laut IDC immerhin 17,7 Prozent aller neuen Server in Europa im vierten Quartal 2009 mit Virtualisierungstechniken ausgeliefert. Bis 2013 erwarten die Marktforscher eine Steigerung auf 23 Prozent. Die optimistischen Prognosen von 2008, die einen Virtualisierungsgrad von 75 Prozent bezogen auf die gesamten IT-Installationen vorhersagten, wurden bislang weit verfehlt. Derzeit wurde laut Gartner erst 25 Prozent der verfügbaren IT virtualisiert (siehe CIOs zögern bei Virtualisierung). Doch das dürfte sich ändern, denn viele die CIOs führen die Themen Virtualisierung und Cloud Computing auf den ersten beiden Plätzen ihrer To-do-Listen für 2011, das hat Gartner in einer Umfrage aus dem Jahr 2010 herausgefunden. Der eigentliche Durchbruch auf breiter Front steht also noch bevor.
These 2: Ein Hypervisor macht noch keine moderne IT-Umgebung
Stellt sich die Frage, warum die Erneuerung der IT bislang stecken geblieben ist. Das Angebot ist da, es reicht von umfassenden Lösungen bis hin zu kostenlosen Produkten und Open-Source-Projekten. Sie erlauben es, eine stabile und zuverlässige virtualisierte Umgebung aufzubauen. Die Erkenntnis setzt sich durch, dass Technik - also der Hypervisor - allein noch keine Revolution im Rechenzentrum bewirken und quasi im Vorbeigehen Kosten sparen kann.
Hypervisor
Im Server-Umfeld hat sich die Hypervisor-Technik vom Typ 1 durchgesetzt, bei der die Virtualisierungsschicht direkt oberhalb der Hardware ("bare metal") und nicht auf einem Betriebssystem läuft. Hypervisor vom Typ 2 laufen als Applikation im Betriebssystem und werden wegen ihrer geringeren Effizienz eher auf Endgeräten genutzt.
Chancen und Stolperfallen
Während die Abkoppelung der Server von der Hardware erhebliche Vereinfachungen und mehr Flexibilität mit sich bringt, steigen die Anforderungen an intelligentes Management und Automatisierung der neuen Umgebung. Außerdem ergeben sich neue Hindernisse, was dazu führt, dass viele Projekte in der Evaluationsphase stecken bleiben oder Virtualisierung eher in Test- und Laborszenarien eingesetzt wird:
• Die Leichtigkeit, mit der Server in virtuelle Maschinen verlagert werden, lässt den Administrationsaufwand steigen, weil plötzlich viel mehr (virtuelle) Server vorhanden sind.
• Das Management virtueller Umgebungen stellt geänderte Ansprüche. Neue Möglichkeiten wie flexibles Provisionierung, Bereithaltung von Images, Migration von VMs von einem Rechner zum anderen erfordern entsprechende Werkzeuge und neue Policies, mit denen die Kontrolle über das Gesamtsystem gewährleistet werden kann.
• Je nach Applikationen, Betriebssystemen und Hypervisor-Hersteller können Lizenzkosten die Kosten treiben. In jedem Falle sollten im Vorfeld entsprechende Kalkulationen betrieben werden.
• Die Anforderungen an die Gesamtausstattung steigen: Virtualisierte Umgebungen fassen viele Server auf wenig Hardware zusammen. Dies impliziert, dass viele Server von einem Rechnerausfall betroffen sind. Damit steigen die Anforderungen an die Hochverfügbarkeit. Die Installation benötigt als Grundlage Shared Storage in Form eines SANs (Storage Area Network), meist auf Basis von Fibre Channel oder iSCSI-Techniken. Das SAN muss ebenfalls hochverfügbar ausgelegt sein.
• Während HA-Mechanismen (High Availability) die Betriebssicherheit insgesamt erhöhen, bietet die zusätzliche Hypervisor-Softwareschicht potenziell neue Angriffsflächen für Angriffe auf die System- und Datensicherheit.
Angesichts dieser Herausforderungen haben sich stufenweise betriebene, Virtualisierungsprojekte bewährt, in deren Rahmen zunächst Testsysteme sowie weniger geschäftskritische Systeme virtualisiert werden. Entscheidend ist der langfristige Auf- und Ausbau einer tragfähigen Management-Umgebung mit Hochverfügbarkeit und Automatisierung auf Basis von Shared Storage.
Zuverlässige Technik ist verfügbar
Die drei Marktführer VMware (ESX, ESXi), Citrix (XenServer), Microsoft (Hyper-V) bieten ein Lösungsportfolio mit einem hohen Reifegrad. Schon seit einigen Jahren geben die großen Hersteller dabei ihre Einsteigerprodukte kostenlos ab. Oberflächlich betrachtet wird der Einstieg in die Server-Virtualisierung damit äußerst kostengünstig. Anwender sollten jedoch die Einschränkungen kennen und die Folgekosten einkalkulieren.
Vor allem VMware und Microsoft positionieren ihre kostenfreien Produkte explizit als Lösungen für Standalone-Server mit den Anwendungsschwerpunkten Testen von Server-Virtualisierung, Aufbau von Entwicklungs- und Testumgebungen und Betrieb weniger kritischer Workloads.
Alle Hersteller lassen sich ihre umfassenden Management-Tools, auf welche die IT in allen größeren Umgebungen zwingend angewiesen ist, immer gut bezahlen. Workload-Management, Server-Lifecycle-Administration, Failover, High Availability, Storage-Management usw. sind Aufgaben, die geeignete Tools benötigen. Dafür gibt es bei Bedarf auch leistungsfähige Werkzeuge von Drittanbietern, welche zum Teil auch Hypervisor-übergreifend arbeiten. Opensource-Produkte wie Xen (Hypervisor in Novell SUSE Enterprise Linux) oder KVM (Hypervisor in Red Hat Enterprise Linux) eröffnen weitere Optionen.
These 3: Storage-Virtualisierung ist der nächste logische Schritt
Server-Virtualisierung kann nicht gelingen ohne ein ausgefeiltes Storage-System. Lokaler Festplatten-Speicher genügt dabei nicht den Anforderungen an Hochverfügbarkeit, dynamischer Lastverteilung und hochgradiger Automatisierung. Shared Storage ist daher unabdingbare Voraussetzung. Speichersysteme müssen zuverlässig, ausfallsicher und flexibel sein. Sie müssen aber auch Kostenkontrolle bieten, denn gerade in virtualisierten Server-Umgebungen kann der Speicherbedarf explodieren. Gefragt sind Konzepte zur effizienten Speichernutzung sowie zur transparenten Integration verschiedener Systeme auch unterschiedlicher Hersteller zu einem Gesamtsystem.
Diese Anforderungen lassen sich nur mit Storage-Virtualisierung realisieren, die systemübergreifend eine zusätzliche Softwareschicht einzieht. Zugreifende Systeme und Anwendungen werden dadurch von der Hardware getrennt. Dies hat viele wichtige Effekte, denn so lassen sich logischer Speicherbereiche (LUNs) einrichten, Plattenkapazitäten erweitern und Daten ohne physische Eingriffe migrieren. Viele Management-Prozesse laufen unterbrechungsfrei. Ebenso wie die Server-Virtualisierung erhöht Storage-Virtualisierung die Zuverlässigkeit bis hin zur Hochverfügbarkeit und lastet die Speicher erheblich besser aus.
Wichtige Funktionen der Storage-Virtualisierung
-
Thin Provisioning: Diese Storage-Technik speichert nur Änderungen an einer virtuellen Maschine.
-
Dynamic Provisioning: Das Verfahren legt Speicherplatz erst dann an und weisen ihn zu, wenn er tatsächlich benötigt wird.
-
De-Duplizierung: Die Funktion eleminiert die doppelt angelegte Inhalte (wie zum Beispiel). Damit lassen sich in VMs bis zu 50 Prozent Speicherplatz einsparen. Gerade VM-Backups verschlingen viel Platz, wobei viele Dateien identisch sind.
-
Backup: Spezialisierte Backup-Techniken mit kleiner Granularität und "Kenntnis" der VM-Image-Struktur vermögen ebenfalls viel Speicherplatz zu sparen sowie Backup- und Wiederherstellungsprozesse stark zu beschleunigen.
These 4: Desktop-Virtualisierung nur betriebswirtschaftlich angehen
Trotz vieler Herausforderungen und noch verbesserungswürdiger Durchdringung in der aktuellen IT-Landschaft ist die Server-Virtualisierung eine akzeptierte Technik, die viele Unternehmen auf dem Radar ihrer anstehenden Investitionen haben. Zunehmend rückt darüber hinaus die Virtualisierung von Desktops in den Fokus der IT-Verantwortlichen. Denn auch hier locken ähnliche Vorteile wie für die Server.
Statt Arbeitsplatz-Rechner immer wieder auf neue Betriebssystem-Versionen zu aktualisieren, was häufig auch mit neuer Hardware verbunden ist, bietet sich ein zentralisiertes Modell an, bei dem die Desktops virtualisiert im Rechenzentrum gehostet werden. So raten Experten, im Rahmen einer Windows-7-Umstellung die gesamte Desktop- beziehungsweise PC-Strategie im Unternehmen zu überdenken. Der Umstieg von physische auf virtuelle Desktops kann eine echte Alternative sein, die sich allerdings zumeist nur langfristig als sinnvolle Investition erweisen kann.
Laut Bitkom wächst der Markt für Desktop-Virtualisierung in Deutschland in diesem Jahr um rund 13 Prozent. Die Analysten von Gartner prognostizieren für das Jahr 2013 ein weltweites Marktvolumen von 65 Milliarden Dollar für PC-Virtualisierung - das wären 40 Prozent des Marktes für professionell genutzte PCs. Nicht umsonst gehören Desktop-Virtualisierung und Cloud Computing damit zu den wichtigsten IT-Trends 2011.
Verschiedene Konzepte sind im Einsatz
Desktop-Virtualisierung wird heutzutage oft gleichgesetzt mit VDI (Virtual Desktop Infrastructure). Dieser Ansatz verlagert physische PC-Desktops in virtuelle Maschinen auf einigen wenigen Servern, wo sie zentralisiert betrieben werden. Damit vereinfacht VDI das Management, erhöht die Sicherheit und die Verfügbarkeit der Systeme und spart Kosten bei Betrieb und Hardware. Zudem verbessert sich die Flexibilität der gesamten IT, indem neue Desktops in Sekundenschnelle bereitgestellt werden können, wenn Mitarbeiter eingestellt werden oder für kurzfristig spezielle Aufgaben müssen.
Virtuelle Desktops gibt es schon lange. Der gute alte Terminal-Server ermöglicht seit Jahren den remote Zugriff auf zentral betriebenen Server-Desktops, die meist in Farmen betrieben werden. Unter anderem Citrix hat mit XenApp die entsprechenden Remote-Techniken verbessert. Diese Art der Zentralisierung hat allerdings den entscheidenden Nachteil, dass Desktops und Applikationen mit anderen Benutzern geteilt werden müssen. Treten Probleme auf, können diese Auswirkungen auf andere User haben. Eine individuelle Umgebung lässt sich nicht oder nur in engen Grenzen bereitstellen.
Sonderform virtualisierter Client Desktop
Einige Hersteller setzen auf einen Client-zentriert Ansatz: Die virtuelle Maschine mit dem Desktop-System wird auf Basis eines Baremetal-Hypervisors auf dem Endgerät ausgeführt. Damit steht dort Typ-1-Virtualisierung zur Verfügung, die direkt auf der Hardware aufsetzt, hohe Performance ermöglicht und eine sehr sichere Separierung der einzelnen Virtuellen Maschinen (VM) garantiert.
Der eigentliche Clou liegt darin, virtuelle Maschinen auf den mobilen Clients auch offline betreiben zu können - im Gegensatz also zu klassischen VDI-Szenarien, die eine permanente Online-Verbindung voraussetzen. Dieses Konzept adressiert vornehmlich Laptop-User in größeren Unternehmen. Geschäfts- und private VMs können z.B. mit Citrix XenClient oder VMware View Local Mode (Hypervisor Typ 2) völlig isoliert voneinander auf demselben Gerät laufen.
VDI räumt mit diesen Nachteilen weitgehend auf, indem sie die Client-Installation in virtuelle Maschinen auf dem Server verlagert. Der Benutzer greift von einem Endgerät (Thin Client, PC) auf seinen Desktop über ein Remote Display Protocol zu, wie es vom Server Based Computing (zum Beispiel Terminal-Server, Citrix Presentation Server, Tarantella) bekannt ist. Zu den wichtigsten Protokollen zählen RDP von Microsoft, ICA von Citrix, ALP von Sun sowie PCoIP (PC-over-IP). Neben dem Protokoll für die Interaktion mit dem entfernten Desktop gehören zudem ein Hypervisor, ein Connection Broker sowie Management-Werkzeuge zu einer vollständigen VDI-Lösung.
Gegenüber anderen Varianten der Desktop-Virtualisierung wie etwa dem Terminal Server hat VDI den großen Vorteil, dass sich individuelle Arbeitsumgebungen besser abbilden lassen, da jeder Mitarbeiter seine eigene Installation in Form einer separaten und privaten Virtual Machine (VM) erhält, die sich im wesentlichen identisch zu einem physischen Desktop verhält.
Probleme gibt es inklusive
Bislang ist die praktische Umsetzung von VDI jedoch aufwändig und bleibt daher noch den großen Unternehmen vorbehalten. Die wesentlichen Hindernisse sind:
• Hohe Anfangskosten: Kostentreiber ist vor allem der benötigte zentrale Netzwerkspeicher (SAN) mit den zugehörigen Hochleistungsnetzwerken. Allein die Kosten hierfür können bis zu 50 Prozent der Gesamtkosten ausmachen. Analysten gehen davon aus, dass in vielen Fällen mit dem Return on Investment (RoI) erst nach mindestens drei Jahren zu rechnen ist. Forrester Research hat ermittelt, dass Unternehmen etwa 605 Euro pro Anwender für ein Desktop-Virtualisierungsprojekt ausgeben. In vielen Fällen ist daher für kleine und mittelständische Unternehmen VDI noch zu teuer beziehungsweise unwirtschaftlich.
• Hohe Komplexität: In der Regel bedarf es einer Fülle von Komponenten und Diensten, um eine VDI-Umgebung aufzusetzen. Dazu gehören etwa Shared Storage, Loadbalancing, Hochverfügbarkeit, Connection Broker usw.
• Benutzererfahrung: Viele der verwendete Protokolle schränken die Anwendungsmöglichkeiten für Benutzer ein. Multimedia-lastige Anwendungen oder der Einsatz von VoIP an virtuellen Arbeitsplätzen scheiden zum Teil aus. Ein weiterer Nachteil ist die fehlende Möglichkeit zur Offline-Nutzung des virtuellen Desktops.
Im ungünstigen Falle verursachen virtualisierte Desktops sogar höhere Kosten als die alte Fat-Client-Armada, wobei dann unter Umständen obendrein noch die Probleme der konventionellen Desktop-Umgebung ins Data Center verlagert werden. Zu bedenken ist, dass eine Desktop-VM fast vollständig einem physischen Client entspricht und wie dieser Virenschutz, Updates und Wartung benötigt. Auch Standard-Anwendungen können Probleme bereiten, wenn sie zum Beispiel zwar Windows 7 fähig sind, jedoch nicht (optimal) über ein Remote Protokoll funktionieren.
Auf den ersten Blick profitieren von dem Konzept vornehmlich große Unternehmen, die viele ähnliche Arbeitsplätze haben und bei denen viele Mitarbeiter mehr oder weniger die gleichen Anwendungen nutzen. Dennoch sollten sich die Mittelständler dieser Technik nicht verschließen, denn neben den Lösungen von VMware, Citrix und Microsoft gibt es auch für sie passende Produkte:
• VMware View: Software für Server Hosted Virtual Desktops (SHVD).
• Citrix XenDesktop: Komplettpaket aus XenServer, Delivery Controller und Provisioning Server.
• Microsoft VDI (Standard Suite, Premium Suite): Komplettpaket aus Hyper-V, Management-Tools (unter anderem SCVMM), MDOP mit App-V und Remote Desktop Services (RDS).
• Quest vWorkspace: leichtgewichtige Alternative zu VMware und Citrix
• Red Hat mit RHEV 2.2 und SPICE als eigenem Remote-Protokoll
• Kaviza VDI-in-a-Box als Lösung für kleine und mittlere Unternehmen (KMU)
• Ericom PowerTerm WebConnect ist ebenfalls sine KMU-Lösung
• MokaFive richtet sich an KMUs, um virtuelle Desktops zentral verwalten und lokal ausführen zu können
Schlanke Alternativen
Inzwischen sind alternative VDI-Lösungen auf dem Markt, die sich gezielt der Anforderungen der KMU annehmen. Sie sind kostengünstiger, deutlich weniger komplex und stellen geringere Anforderungen an die Hardware.
Kaviza VDI-out-of-the-box ist ein solches Programm. Besonders hervorzuheben ist die Genügsamkeit bei der Server- und Storage-Ausstattung und die angesichts dessen trotzdem gebotene Hochverfügbarkeits-Versicherung. Da die Anfangs-Kosten vergleichsweise gering sind, rechnet der Hersteller vor, dass sich der Einsatz ab etwa 25 Anwendern beziehungsweise virtuellen Desktops lohnt. Allerdings: An die Administratoren werden trotz allem recht hohe Ansprüche gestellt, da zunächst einmal das Thema Server-Virtualisierung als Basisinfrastruktur (auf Basis von Citrix XenServer oder VMware ESX(i)) gemeistert werden muss.
Applikations- und User-Virtualisierung
Virtualisierte Desktops bringen erst einen wirtschaftlichen Nutzen, wenn die Applikations- und Benutzerverwaltungs-Infrastruktur flexibilisiert und vom eigentlichen Desktop abgekoppelt gespeichert und verwaltet wird. Denn virtuelle Desktops werden auf Basis zentraler Images generiert und bereitgestellt, die für die meisten Anwender identisch sind. Da empfiehlt es sich, neben den Applikationen auch die Benutzerdaten unabhängig zu speichern und dynamisch von zentraler Stelle aus zur Verfügung zu stellen.
Die Virtualisierung von Desktop-Anwendungen kann dabei vor allem die Administration durch installationsfreie Softwareverteilung vereinfachen und Migrationsvorhaben wie Windows 7-Einführungen sicherer gestalten. Die Softwareverteilung erfolgt dabei ohne Installation, dadurch werden Konflikte mit anderer Software sowie Treibern und Inkompatibilitäten mit unterschiedlichen Betriebssystem-Versionen vermieden. Anwendungen werden in einem virtuellen Container auf dem Client-PC ausgeführt, womit die Applikation gegenüber dem Betriebssystem abgeschottet wird. Desktops werden dafür nur mit einem standardisierten Betriebssystem-Image sowie einem Agent für die virtualisierte Softwarebereitstellung versehen.
Der Vorgang ist für den Anwender völlig transparent: Wenn der Benutzer sich anmeldet, erhält er automatisch sämtliche Verknüpfungen zu allen für ihn vorgesehenen Applikationen eingerichtet. Beim ersten Start einer solchen Anwendung wird diese zur Echtzeit vom Server gestreamed. Bei Aktualisierung der zentral gehosteten Applikation erhält der Benutzer-PC automatisch das entsprechende Update.
Produkte für Applikationsvirtualisierung
-
VMware ThinApp;
-
Microsoft App-V;
-
Symantec Altiris SVS.
These 5: Die Cloud braucht noch Zeit
Cloud Computing ist der nächste folgerichtige Evolutionsschritt der Virtualisierung in der Unternehmens-IT. Cloud Computing wird dabei häufig irrigerweise synonym mit Virtualisierung verwendet, meint aber vor allem die automatisierte und standardisierte Bereitstellung abstrahierter IT-Infrastrukturen wie zum Beispiel Rechenkapazität, Datenspeicher, fertige Programmpakete, die ein Anbieter dynamisch an den Bedarf angepasst auf Basis von Virtualisierungstechnologien über ein Netzwerk zur Verfügung stellt. Die Abrechnung erfolgt dabei meist nutzungsabhängig.
Ausprägungen der Cloud
Beim Cloud Computing unterscheidet man im Wesentlichen zwischen drei Ausprägungen:
IaaS (Infrastructure as a Service): Die automatisierte Bereitstellung von Applikations-Clustern wie bei Amazon EC2 oder RightScale.
PaaS (Platform as a Service): Die automatisierte Bereitstellung von Programmierumgebungen wie bei Googles App-Engine.
SaaS (Software as a Service): Die automatisierte Bereitstellung von Programmen wie bei Salesforce oder GoogleMail.
Cloud-IT ist ein Megatrend, weil sich auf Basis der darunter liegenden weit entwickelten Virtualisierungstechniken erstmals ein wirklich praktikabler Ansatz eröffnet, IT als Service im Unternehmen zu etablieren. Die Grundidee dabei ist, nur tatsächlich genutzte Dienste auf Basis von SLAs abzurechnen und eine höchstmöglicher Kostentransparenz zu bieten. Zudem ergeben sich nennenswerte Einsparpotenziale, weil nur noch Dienste in Rechnung gestellt werden, die tatsächlich genutzt wurden, weil Nutzer keine eigene Server-Hardware anschaffen müssen und weil die Kosten für Softwarelizenzen sowie das Management sinken. Ein weiterer wesentlicher Vorteil ist die nahtlose Skalierbarkeit der Umgebung in der Cloud.
Doch dem Cloud Computing stehen auch viele Hürden im Wege: so sehen 60 Prozent der in einer Studie von Deloitte befragten Unternehmen Sicherheitsprobleme sowie datenschutzrechtliche Hindernisse, und meiden daher noch die Cloud. Außerdem sind noch nicht überall ausreichende Mechanismen zum Monitoring, Messen und Abrechnen der Services vorhanden.
Unterschiedliche Anbieter sowohl von Betriebssystemen als auch Infrastruktur-orientierten Plattformen bieten inzwischen ihre Lösungen für Cloud Computing an. Jedoch mangelt es bislang gerade für mittelständische Unternehmen an handhabbaren Systemen besonders für den Aufbau privater Clouds. Bislang zeichnet sich als Trend ab, dass im wesentlichen Großunternehmen auf Private Clouds setzen, während KMU sich eher externer Dienste bedienen.
Fazit: Die Server-Virtualisierung ist reif
Die Zeit für Server-Virtualisierung ist auch bei mittelständischen Unternehmen inzwischen mehr als reif. Bei entsprechenden Projekten sollten unbedingt auch Aspekte der Storage-Virtualisierung mit einbezogen werden.
Im Rahmen anstehender Migrationen auf Windows 7 sollten Unternehmen die Chancen und Risiken der Desktop-Virtualisierung analysieren und sich der Langfristigkeit eines solchen Projekts bewusst sein. Für kleine und mittelständische Unternehmen sind inzwischen leichtgewichtige und kostengünstigere Lösung am Markt, um zumindest bestimmten Anwendergruppen flexible Lösungen bereitstellen zu können.
Unternehmen sind in jedem Fall gut beraten, für eine durchgängige Virtualisierung mit automatisierten Prozessen und modularen Desktops zu sorgen, um im Hinblick auf Cloud-Computing-Strategien gut aufgestellt zu sein. (jha)
Weitere Informationen
Ericom PowerTerm WebConnect 5.7: Citrix-Alternative für KMUs
Desktop-Virtualisierung mit Microsoft: die Technologien im Überblick
NetApp-Studie zur Virtualisierung
Zenoss-Studie zur Virtualisierung in Unternehmen
Rechenbeispiel Kosteneinsparung durch Virtualisierung