Cloud-Computing bald ganz groß

Der Trend geht zur Virtualisierung

11.06.2008
Von 
Jan-Bernd Meyer betreute als leitender Redakteur Sonderpublikationen und -projekte der COMPUTERWOCHE. Auch für die im Auftrag der Deutschen Messe AG publizierten "CeBIT News" war Meyer zuständig. Inhaltlich betreute er darüber hinaus Hardware- und Green-IT- bzw. Nachhaltigkeitsthemen sowie alles was mit politischen Hintergründen in der ITK-Szene zu tun hat.

Virtualisierung - der große Trend

Zu den wichtigen Voraussetzungen für Cloud Computing gehören Fortschritte im Bereich Virtualisierung von Server- und Speicherumgebungen. Gartner-Analyst Butler sieht "Virtualisierung als einen immens herausfordernden, spannenden Trend. Das Konzept wird nicht nur bei Servern Spuren massiv hinterlassen, sondern in genauso hohem Maße Bedeutung gewinnen für Speichertechniken, für Netztopologien und für Applikationen auf den PCs."

Auch für Mrksa von Techconsult ist Virtualisierung bei Servern und zunehmend auch im Storage-Umfeld ein brandheißes Thema. Angetrieben würden entsprechende Bestrebungen durch den Wunsch in IT-Zentren nach Effizienzsteigerungen, einem geringeren Energieverbrauch und einer besseren Administration der IT-Systeme.

Virtualisierung: für RZs in Zukunft unabdingbar

Andreas Vogl von Siemens IT Solutions and Services betont: "Virtualisierung ist unabdingbar für das zukünftige Rechenzentrum. Der hohe Kostendruck, steigender Stromverbrauch und der Kohlendioxid-Ausstoß zwingen Unternehmen dazu, Server und Speichersysteme besser auszulasten. Dazu liefert die Virtualisierung die notwendigen Hilfsmittel und ermöglicht gleichzeitig eine regelbasierte Automatisierung."

Virtualisierung ist wichtig, aber wer hat Ahnung davon?

Jeder der Experten erkennt die überragende Bedeutung des Themas an. Experton-Analyst Schwab sieht nur ein Problem: "Schwierig an der Virtualisierung ist ihre Realisierung." In den Unternehmen fehle in aller Regel das Wissen für dieses Technik- und Servicekonzept. Aber wer Virtualisierung zum Vorteil des Unternehmens nutzen wolle, der müsse schon genau wissen, was er tue. So gebe es beispielsweise Workload-Charakteristika, die sich nicht vernünftig virtualisieren ließen. Schwab: "Tut man es trotzdem, hat man ein massives Problem."

Ein Beispiel hierfür seien Echtzeit-BI-Systeme: "Auf dem Papier kann man das prima virtualisieren." Gehe man so im real existierenden Rechenzentrum vor, werde man schnell an einen Punkt kommen, an dem das System steht." Grund hierfür ist, dass BI-Systeme im schnellen Wechsel Anforderungen an die CPU und an die Speichermedien haben. Diese Mischung macht eine Virtualisierung fast unmöglich, "denn es kommt hier zu einem ständigen massiven Datenfluss, der nicht genau eingeschätzt werden kann und auch nicht vorhersehbar ist".

Ein Fehler sei es, wenn Unternehmen sich Virtualisierungs-Know-how einkauften, also entsprechendes Personal anheuerten. "Ein Unternehmen virtualisiert seine Infrastruktur genau einmal und danach muss es diese Umgebung nur noch pflegen." Dazu muss man aber keinen Spezialisten einstellen. Das sei - auch wenn der Vergleich hinke - wie bei Spezialwerkzeug, das man genau einmal benötige. Das leihe man sich ja auch aus.

Problematisch ist allerdings, dass es im Dienstleistungs- und Beratungsmarkt wenige Anbieter gibt, die Virtualisierung schon beherrschen. "Die Großen wie IBM, T-Systems oder HP sollten es zumindest können - allerdings haben die ihren Preis", meint Schwab. Sein Tipp: Wenn Unternehmen ein Virtualisierungsvorhaben planen, sollten sie mit kleinen Projekten beginnen. Funktionieren die nicht, sollte man den Dienstleister wechseln.