Der Trend geht zur Virtualisierung

13.05.2008
Im Server-Markt lassen sich nach Meinung von Branchenkennern fünf Themen erkennen: Cluster-, Grid- und Cloud-Computing zum einen, Virtualisierung und Zentralisierung zum anderen.

Nicht alles, was heute als selbstverständlich gehandelt wird, ist schon in Unternehmen angekommen - flächendeckend schon gleich gar nicht. Wie alle anderen IT-Bereiche pflegt auch das Server-Segment seine Hype-Themen: Cloud Computing wird hoch gehandelt, Grid Computing ebenfalls. Zwei Modebegriffe, die im Wesentlichen das Gleiche bedeuten.

Cluster: Was für die ganz wichtigen Daten

Für Cluster gilt das nicht. Insbesondere in Umgebungen, in denen viel Wert auf Ausfallsicherheit gelegt wird - klassischerweise etwa bei firmenrelevanten Datenbanken -, lagern Anwender unternehmenskritische Anwendungen nicht nur in einem einzigen Rechnersystem, sondern in mehreren. So argumentiert etwa Andreas Vogl, Manager bei Siemens IT Solutions and Services (SIS): "Cluster sind und bleiben unabdingbar für geschäftskritische und anwendungsrelevante Applikationen sowie für Fabriksteuerungen. Denn schließlich muss ein Unternehmen alle Betriebszustände und Daten sofort redundant sichern, um sich gegen Hardwareausfälle zu schützen."

Virtualisierung: Seit 40 Jahren bekannt

Sehr viel diskutiert wird auch über die Schlagworte Virtualisierung und Zentralisierung. Ganz neu ist das Thema Virtualisierung dabei nicht: Die IBM widmet dieser Technik auf Großrechnersystemen seit nunmehr rund 40 Jahren ihre Aufmerksamkeit. Mittlerweile und mit dem Angebot von VMware ist Virtualisierung auch auf Unix- und Windows-Servern angekommen. Die Strategie verheißt Großes in puncto Kosteneinsparungen und der Lastausnutzung von Servern - aber die Frage ist: Wer beherrscht Virtualisierung überhaupt?

Zentralisierung etwa in Form von Terminal-Server-basierenden Lösungen à la Citrix ist hingegen in der Tat nicht erst seit gestern ein probates Mittel, um dem durch die Client-Server-Strategien bedingten Wildwuchs zu begegnen.

Cloud Computing definiert jeder auf seine Art

In einem sind sich praktisch alle Experten einig: Cluster-, Cloud- und/oder Grid-Computing sowie Virtualisierung und Zentralisierung werden in den kommenden Jahren das Server-Segment prägen. Gartner-Analyst Andrew Butler beantwortet die Frage nach den Trends im Server-Markt dahingehend, man solle sich fragen, welche davon zunächst vernachlässigbar seien.

Da wäre etwa das Thema Cloud Computing: "Wenn wir ehrlich sind, dann hat vor einem Jahr doch noch niemand etwas von Cloud Computing gehört. Das kam aus dem Nichts und wurde schnell zu einem Phänomen, das sich im Bewusstsein vieler festsetzte." Gartner gebe dem eine große Zukunft. Das Problem ist allerdings die Definition. Was genau ist darunter zu verstehen?"

Butler meint, momentan habe jeder eine andere Vorstellung von dem Konzept. Darüber hinaus sei diese Form der Organisation von Rechenkapazität bislang nur für eine kleine Zahl von zudem nicht gerade typischen Organisationen geeignet. "Die Yahoos, Googles, Microsofts und Amazons dieser Welt - für die mag Cloud Computing angebracht und passend sein. Diese Unternehmen dürften das Prinzip am schnellsten realisiert haben."

Für Benutzer riesiger Datenzentren à la Google gilt, dass sie gar nicht genug Rechenleistung haben können. Deren Strategie ist, ihre typischerweise Web-zentrischen Applikationen auf eine hohe Zahl kleiner Rechenknoten zu verteilen, um so die Rechenleistung steigern zu können. Dieses Vorgehen bezeichnet Gartner als Scale-out eines Rechenzentrums.

Cloud Computing ist nach Meinung von Butler heute vor allem ein Indikator dafür, wohin die Industrie in Zukunft gehen wird. Das Konzept werde für vieles stehen, das schon lange in der Diskussion sei. Butler: "Hierzu zähle ich beispielsweise Grid Computing und Utility Computing. Cloud wird diese Begriffe nicht ersetzen, aber sie werden in einem breiteren Cloud-Phänomen eine Rolle spielen."

Ein Thema für Medien und Professoren

Damianos Soumelidis glaubt auch, dass sich erst in den kommenden Jahren die Möglichkeiten von Cloud Computing zeigen werden. Der Leiter Infrastructure Solutions des österreichischen IT-Dienstleisters S&T DACH sagt weiter, dass das Thema "noch akademisch und derzeit eher im Forschungsumfeld angesiedelt ist".

Cloud Computing, so Soumelidis, werde von Medien immer gern diskutiert, weil das Konzept Aufsehen errege. Die grundsätzliche Idee, Rechenleistung von vielen Computern einer oder mehreren Institutionen und Unternehmen zur Verfügung zu stellen, sei zwar interessant, habe aber einen Haken: Zu solch einer IT-Strategie gehörten externe Zugriffe auf interne (IT-)Ressourcen - einschließlich der Öffnung der Firmen-Firewalls. "Wie Sie sich denken können, löst dies in der Regel heftige Kopfschmerzen bei den IT-Verantwortlichen aus", kommentiert Soumelidis. Bisher fanden Cloud-Computing-Konzepte daher eher im akademisch-universitären Bereich Anwendung - hier allerdings recht erfolgreich, meint der S&T-Mann.

Mietsoftware-Anbieter treiben Cloud Computing

Heute werde das Konzept in einer abgewandelten Form nur von einigen wenigen GridComputing- und Software-as-a-Service-(SaaS-)Anbietern verfolgt. Es gebe kaum ernst zu nehmende Anbieter, auch wenn IBM in Cloud Computing investiere, sagt Soumelidis. Noch geringer sei zudem die Zahl der Unternehmen, die sich einem Cloud-Anbieter anvertrauen würden. Gründe hierfür hat er schnell aufgezählt: Zum einen seien die Systemstabilität und -Verfügbarkeit noch problematisch. Zum anderen fehle es bandbreitentechnisch an Quality of Services (QoS). Unternehmen würden immer noch Standleitungen oder MPLS-Netze der Internet-Wolke vorziehen. Soumelidis Fazit: "Cloud Computing ist noch ein Thema für Zukunftsstudien."

Den Zusammenhang zwischen SaaS- und Cloud-Computing-Konzept sieht auch Andreas Vogl von SIS. Server würden die Infrastruktur für Cloud Computing in Form von Utility Computing, Real Time Infrastructure (RTI), Adaptive oder Grid Computing zur Verfügung stellen. "Cloud Computing zielt auf den Applikationsbereich - wie zum Beispiel SaaS oder 'Application as a Service'. Die zugrunde liegenden Technologien kommen von der Automatisierung und Virtualisierung", so Vogl.

Erfolge auf breiter Front in fünf Jahren

Denis Mrksa, Analyst bei der Techconsult GmbH in Kassel, geht davon aus, dass sich das Konzept erst in etwa fünf Jahren durchsetzen wird. Cloud Computing hänge zudem stark vom Erfolg des SaaS-Modells ab.

Mrksa definiert Cloud Computing als Servicekonzept: "Hierbei werden Soft- und Hardware nicht mehr vom Anwender betrieben, sondern über - auch verschiedene - Dienstleister zugeliefert."

Solche Serviceangebote richten sich dabei nicht nur auf Web-Applikationen. CRM- und ERP-Anwendungen etwa funktionierten im Zuge eines SaaS-Konzepts technisch bereits. Auch Storage-as-a-Service-Angebote würden zunehmend von großen Dienstleistern offeriert. Dies alles seien Vorstufen zu einer Cloud-Computing-Zukunft.

Damit sich der Trend auf breiter Basis durchsetze, müsse Anwendern ein Katalog mit standardisierten Services zur Verfügung stehen. Ein automatisiertes System-Management sollte zudem Services für den jeweiligen Anwender heraussuchen und über ein Provisioning-System aus dem Server-Pool dem User zuordnen können. "All dies lässt sich aber für die breite Masse der Anwender heute noch nicht umsetzen", so Mrksa.

"Einsatzszenarien" sieht der Techconsult-Analyst bislang im Entwicklungsumfeld und bei Web-Applikationen, die über eine externe Infrastruktur laufen (Amazon Elastic Compute Cloud, Google App Engine).

Cloud und Grid Computing ist nichts für die breite Masse

Wie seine Kollegen meint auch Experton-Analyst Wolfgang Schwab, dass die Realisierung von Cloud Computing und Grid Computing - "beide Begriffe benennen das Gleiche" - noch dauern wird und "nichts für die breite Masse ist". Schwab fragt sich ferner, für welche Anwendungen Grid Computing überhaupt geeignet sei. Prinzipiell sei die Idee, "eine unbestimmte Zahl an Servern zu haben, die mit Rechenanforderungen beworfen werden, und irgendeiner der Server wird dann die Arbeit erledigen", ja durchaus bestechend. Letztendlich seien aber die Szenarien, in denen auf Abruf sehr große Mengen an Rechenleistung benötigt werden - das typische Cloud-Szenario - eher begrenzt.

Schwab führt einen weiteren Punkt in die Debatte ein. Heute rede zwar jeder über Cloud Computing, als sei dies eine unkomplizierte Technik. "Die technische Umsetzung von Cloud-Computing-Konzepten ist jedoch höchst komplex", so Schwab. Die Verwirklichung dieser Technik werde deshalb noch dauern.

Angesichts der Komplexität von Cloud-Computing-Konzepten fordert Schwab von Herstellern wesentlich mehr Anwenderfreundlichkeit. Unternehmen könnten zudem eventuelle Pläne, ihr gewachsenes Rechenzentrum auf solch ein Konzept umzustellen, getrost vergessen: "Das geht nicht. Wer Cloud Computing nutzen will, braucht eine komplett neue Infrastruktur." Zudem müssten Anwender erheblichen Aufwand in Professional Services stecken. "Cloud Computing rechnet sich also für Anwender noch nicht."

Virtualisierung - der große Trend

Zu den wichtigen Voraussetzungen für Cloud Computing gehören Fortschritte in der Virtualisierung von Server- und Speicherumgebungen. Gartner-Analyst Butler sieht "Virtualisierung als einen immens herausfordernden, spannenden Trend. Das Konzept wird nicht nur bei Servern starke Spuren hinterlassen, sondern in genauso hohem Maße Bedeutung gewinnen für Speichertechniken, für Netztopologien und für Applikationen auf den PCs."

Auch für Mrksa von Techconsult ist Virtualisierung bei Servern und zunehmend auch im Storage-Umfeld ein brandheißes Thema. Angetrieben würden entsprechende Bestrebungen durch den Wunsch in IT-Zentren nach Effizienzsteigerungen, einem geringeren Energieverbrauch und einer besseren Administration der IT-Systeme.

Andreas Vogl von Siemens IT Solutions and Services betont: "Virtualisierung ist unabdingbar für das zukünftige Rechenzentrum. Der hohe Kostendruck, steigender Stromverbrauch und der Kohlendioxid-Ausstoß zwingen Unternehmen dazu, Server und Speichersysteme besser auszulasten. Dazu liefert die Virtualisierung die notwendigen Hilfsmittel und ermöglicht gleichzeitig eine regelbasierte Automatisierung."

Der neue Ansatz ist wichtig, aber wer hat Ahnung davon?

Jeder der Experten erkennt die überragende Bedeutung des Themas an. Experton-Analyst Schwab sieht nur ein Problem: "Schwierig an der Virtualisierung ist ihre Realisierung." In den Unternehmen fehle in aller Regel das Wissen für dieses Technik- und Servicekonzept. Aber wer Virtualisierung zum Vorteil des Unternehmens nutzen wolle, der müsse schon genau wissen, was er tue. So gebe es beispielsweise Workload-Charakteristika, die sich nicht vernünftig virtualisieren ließen. Schwab: "Tut man es trotzdem, hat man ein massives Problem."

Ein Beispiel hierfür seien Echtzeit-BI-Systeme: "Auf dem Papier kann man das prima virtualisieren." Gehe man so im real existierenden Rechenzentrum vor, werde man schnell an einen Punkt kommen, an dem das System steht." Grund hierfür ist, dass BI-Systeme im schnellen Wechsel Anforderungen an die CPU und an die Speichermedien haben. Diese Mischung macht eine Virtualisierung fast unmöglich, "denn es kommt hier zu einem ständigen massiven Datenfluss, der nicht genau eingeschätzt werden kann und auch nicht vorhersehbar ist".

Ein Fehler sei es, wenn Unternehmen sich Virtualisierungs-Know-how einkauften, also entsprechendes Personal anheuerten. "Ein Unternehmen virtualisiert seine Infrastruktur genau einmal, und danach muss es diese Umgebung nur noch pflegen." Dazu muss man aber keinen Spezialisten einstellen. Das sei - auch wenn der Vergleich hinke - wie bei Spezialwerkzeug, das man genau einmal benötige. Das leihe man sich ja auch aus.

Problematisch ist allerdings, dass es im Dienstleistungs- und Beratungsmarkt wenige Anbieter gibt, die Virtualisierung schon beherrschen. "Die Großen wie IBM, T-Systems oder Hewlett-Packard sollten es zumindest können - allerdings haben die ihren Preis", meint Schwab. Sein Tipp: Wenn Unternehmen ein Virtualisierungsvorhaben planen, sollten sie mit kleinen Projekten beginnen. Funktionieren die nicht, sollte man den Dienstleister wechseln.

Zentralisierung: Zurück in die vergangene Zukunft

Nicht nur nach Ansicht von Techconsult-Analyst Mrksa ist Konsolidierung respektive Zentralisierung im Server-Umfeld ebenfalls ein großes Thema. "Je größer das Unternehmen ist, desto dringender ist die Forderung nach Zentralisierung."

Überraschend ist an diesem Trend allerdings, dass die IT-Welt nach den großen Zeiten der Mainframes erst einmal alles "dezentralisieren und beispielsweise von Terminal-Services auf Fat Clients wechseln wollte". Heute schlagen IT-Verantwortliche wieder den entgegengesetzten Weg ein. Wieder kommt hier Virtualisierung ins Spiel, nämlich beim Server-Computing. Zudem seien Thin-Client-Architekturen (ehedem Terminals) heute für spezielle Szenarien nützlicher und auch ökonomischer. Wie es der IT-Verantwortliche einer großen deutschen Bank formuliert: "Mit unserer Terminal-Server-Lösung sind wir eigentlich wieder da angelangt, wo wir vor 20 Jahren schon einmal waren." Allerdings sind die heutigen Zentralisierungstechniken wesentlich eleganter, anwenderfreundlicher und mobiler.

Technisch kein Problem - politisch sehr wohl

Mrksa gibt zu bedenken, dass Zentralisierung häufig und gerade in großen Unternehmen weniger ein technisches als ein politisches Problem darstellt. "Wenn Großkonzerne beispielsweise von 100 Data Centers auf zehn konsolidieren - siehe die Beispiele von HP und IBM -, so hat das Auswirkungen auf die Organisationsstruktur", kommentiert der Techconsult-Analyst das Thema Entlassungen. Diese würden sämtliche Mitarbeiterebenen treffen.

SIS-Mann Vogl sieht den Trend zur Zentralisierung ebenfalls in engem Zusammenhang mit den Entwicklungen in der Virtualisierung und Automatisierung. "Zentralisierte Server können flexibel, transparent und kosteneffizient betrieben wer-den. Nur so lassen sich alle Vorteile der Virtualisierung und Automatisierung überhaupt erst optimal nutzen." Vor allem im Hinblick auf die Unterstützung der Geschäftsprozesse sei dies wichtig.

Einen weiteren Erklärungsansatz für den Trend zur Zentralisierung von IT-Topologien hat Schwab von Experton: "Das Thema ist auch aus der Not geboren." Dezentrale Strukturen seien nur schwer zu verwalten. Dazu brauche es viele Administratoren, "und die sind am Markt nicht so ohne weiteres verfügbar". Sogar im Windows- und Unix-Umfeld sei es mittlerweile schwierig, Administratoren zu finden. Schwab zu dem Dilemma, in dem sich Konzerne befinden: "Wenn ein Unternehmen heute einen Administrator einstellen will, dann hat es die Wahl: Entweder es nimmt einen jungen und unerfahrenen Kandidaten. Das wollen die wenigsten Firmen. Oder das Unternehmen muss richtig Geld ausgeben. Das wollen auch die wenigsten." Also suchen sie ihr Heil in der Zentralisierung, "weil man keine Leute einstellen will und kann".

Nichts Genaues weiß man nicht

Für IT-Verantwortliche gibt es angesichts dieser Technikkonzepte, die viel versprechen, aber oft noch nicht richtig ausgegoren sind, einen Trost, den Gartner-Analyst Andrew Butler spendet: "Bei all den Diskussionen und Unwägbarkeiten über die Trends in der IT-Welt im Allgemeinen und im Server-Umfeld im Besonderen kann man eins mit Sicherheit sagen: Wie die Data Center, in denen Server ihren Dienst tun, in zehn Jahren aussehen, das wissen wir nicht." (jm)

Hier lesen Sie ...

  • ob Cloud- und Grid-Computing von Analysten als ein und dasselbe angesehen werden;

  • wann Cloud-Computing Realität wird;

  • für wie wichtig Experten das Thema Virtualisierung halten

  • und welche Prognose Marktbeobachter darüber abgeben, was in zehn Jahren sein wird.

Mehr zum Thema

www.computerwoche.de

www.computerwoche.de/

1861052: Virtualisierung krempelt Desktop-Computing um;

1864706: Virtualisierung: Große Pläne, wenig Know-how;

1846634: Malteser gewinnt mit Re-Zentralisierung IT-Wettbewerb.