Die Daten außerhalb der Unternehmens-Firewall speichern - das ist vielen IT-Managern zu riskant. Um trotzdem die versprochenen Vorteile aus dem Cloud Computing ziehen zu können, konzentrieren sie sich auf die "Private Cloud". Darin werden nach Ansicht der Marktforscher die Großunternehmen künftig verstärkt investieren.
Auch CIOs wie Wolfgang Gaertner (Deutsche Bank) oder Klaus Hardy Mühleck (Volkswagen) entscheiden sich für die private Variante der Cloud. Doch auch die hat ihre Tücken. Management und operationale Prozesse wollen erst einmal in den Griff bekommen sein. Und die Ansprüche an die Unternehmens-IT sind enorm: Eine interne Private Cloud aufzubauen kostet Zeit, Geld und Geduld. Der Übergang von einem traditionellen Data Center - auch wenn es bereits auf virtualisierten Servern basiert - in eine Private-Cloud-Architektur ist nicht einfach.
Im Allgemeinen stellt man sich eine Privat Cloud innerhalb der geschlossenen IT-Umgebung eines Unternehmens vor. Aber es gibt durchaus auch Prviate-Cloud-Installation, die außerhalb der Firewall von einem Dritten betrieben werden - unter der Kontrolle der unternehmensinternen IT-Abteilung. In diesem Beitrag geht es aber nur um Private Clouds im landläufigen Sinn.
Mehr als nur Virtualisierung
Ungeachtet des allgegenwärtigen Hype gibt es derzeit keinen einzigen Anbieter, der wirklich die ganze Bandbreite der Software bereitstellen kann, um eine Private Cloud einzurichten und zu managen. Dazu gehören Produkte für Server-, Speicher- und Netzvirtualisierung sowie für die Automatisierung und Orchestrierung von Ressourcen. Stattdessen ist immer häufiger zu beobachten, wie Anbieter eigene Definitionen von Private Cloud schaffen, die sich mit dem jeweiligen Produktportfolio decken.
Zudem sollte sich der IT-Verantwortliche auch das eigene Personal anschauen. Haben die Mitarbeiter die Erfahrung und die Fähigkeiten, die es braucht, um eine Private-Cloud-Umgebung zu betreiben? Oder muss man doch jemanden einstellen, der schon in den Aufbau einer oder mehrerer Private Clouds involviert war?
Viele IT-Manager setzen eine Private Cloud gleich mit einem virtualisierten Rechenzentrum. Doch Virtualisierung und Cloud sind nicht dasselbe: Eine Architektur, die den Namen Cloud verdient, muss die Möglichkeit bieten, oberhalb der Virtualisierungsebene die Orchestrierung und Automatisierung der Ressourcen zu handhaben.
Unter Orchestrierung verstehen Cloud-Fachleute die koordinierte Bereitstellung unterschiedlicher Ressourcentypen, beispielsweise Prozessoren, Speicherplatz und Netz, in einem integrierten Prozess. Eine Anforderung löst also eine Reihe von Aktionen aus - idealerweise in einer spezifischen Reihenfolge. Auf diese Weise ist die benötigte Kapazität innerhalb von Minuten statt in Tagen oder Wochen verfügbar.
Nur noch eine Konsole?
Eine Prviate Cloud hilft dem IT-Manager in erster Linie, die Kosten zu senken und auf Anforderungen flexibel zu reagieren. Das Management der Infrastruktur zu vereinfachen ist ein willkommener Nebeneffekt.
Muss in einem traditionell aufgesetzten Data Center ein Server hinzugefügt werden, so geht jemand zu einer Firewall-Konsole und installiert neue Regeln, er verbindet den Server mit einem VLAN, setzt das Load Balancing neu auf und erledigt eine Reihe weiterer Aufgaben, so Jeff Deacon, Principal für das Thema Cloud Computing beim Managed-Services-Spezialisten Verizon Business. Im Gegensatz dazu benötige eine Private Cloud deutlich weniger menschliches Eingreifen:
Eigentlich sei es nur nötig, die neuen Computer oder Speichermedien entsprechend den Anforderungen zu platzieren. In einer solchen Umgebung gibt es idealerweise eine einzige Konsole, von der aus der Operator die Parameter setzt, um den gesamten Prozess zu automatisieren. Das Einloggen in unterschiedliche Konsolen für Sicherheit, Networking und Server-Betrieb gehört damit der Vergangenheit an.
Minuten statt Wochen
Ein anderer großer Unterschied zwischen der Private Cloud und dem traditionellen Data Center bezieht sich auf die IT-Prozesse. Wenn heute neue Computer-Ressourcen bereitgestellt werden sollen, müssen die IT-Organisationen das Budget dafür beantragen, die Auswirkungen auf das Speicherverhalten, das Netz und die Server-Gruppen diskutieren sowie einen Wust von Formularen ausfüllen.
Mit anderen Worten: Dieser Prozess ist so ziemlich das Gegenteil, der stromlinienförmigen und raschen Beschaffung, wie sie in einer Cloud möglich ist. Die Bereitstellungszeit lässt sich möglicherweise in Minuten statt in Wochen messen.
Die Architektur wird aufgemöbelt
Auch die Systeme, auf denen ältere Anwendungen laufen, brauchen ein Facelifting. Mainframes und proprietäre Unix-Plattformen vertragen sich nicht besonders gut mit der Cloud. Die meisten virtualisierten Umgebungen, zu denen ja auch die Clouds zählen, sind auf x86-Systeme ausgerichtet.
In einer virtualisierten Umgebung weiß niemand exakt, wo eine Anwendung zu einer bestimmten Zeit läuft. Legacy-Applikationen hingegen sind an eine bestimmte Plattform gebunden. Wenn sie in eine Private Cloud übernommen werden sollen, muss ihre Architektur geändert werden.
Eines der Kennzeichen einer Cloud, Private wie Public, ist die Trennung zwischen Anwendung und Hardware. In einem traditionellen Data Center gibt es vielleicht zehn Server, auf denen Rechnungsanwendungen laufen, fünf, die Kundendaten verarbeiten etc. In einer Privat Cloud suchen sich die Anwendungen quasi einen Server, der gerade freie Kapazität hat.
Die Business-User profitieren von der Cloud, indem sie bei Bedarf schnell und ohne menschliches Eingreifen Kapazitäten und Services beziehen. Die IT-Leute müssen dafür sorgen, dass stets genug Ressourcen zur Verfügung stehen. Anforderungen müssen innerhalb von Minuten erfüllt werden. Denn von nun an werden die User Wartezeiten nicht mehr akzeptieren.
Konsequenzen für den IT-Bereich
Private Clouds bieten die "Elastizität" der Public Clouds. Das geschieht innerhalb des von einer Firewall geschützten inneren Firmenbereichs - was aber die Anwender nicht davon abhält, an die Private Cloud dieselben Anforderungen zu stellen wie an die Public Cloud.
In der Public Cloud ist der Provider für die Infrastruktur verantwortlich, eine Business Application Group des Kunden kümmert sich um Management und Monitoring der Anwendungen. Wenn die Private Cloud in ähnlicher Manier betrieben werden soll, muss sich die IT-Abteilung anpassen, sprich: Unter Umständen ihre gewohnte Rolle als Anwendungs-Managerin aufgeben.
Wo anfangen?
Die ersten Schritte auf dem Weg zu einer Private Cloud fangen jenseits der Server-Virtualisierung an. Tony Iams, Analyst beim IT-Forschungsunternehmen Ideas International Ltd., beschreibt sie folgendermaßen:
-
Virtualisieren Sie Ihren Speicher und versuchen Sie, dieselbe Flexibilität zu erreichen wie bei den virtualisierten Servern.
-
Koordinieren Sie Server- und Storage-Virtualisierung mit Management-Tools wie Microsofts "Windows Azure Storage" oder "vStorage" von VMware.
-
Virtualisieren Sie Ihre Netzinfrastruktur, um sie wieder mit Hilfe der Management-Werkzeuge zu koordinieren.
Aber mit der Virtualisierung ist der Übergang zu einer Private Cloud noch nicht geschafft. Ihn erkennt man daran, dass sich alle drei Ressourcen - Server, Speicher und Netz - mit denselben Werkzeugen und quasi auf Zuruf wie ein einziger Ressourcen-Pool anzapfen lassen.
Das ist selbstverständlich eine eher technologische Sichtweise. Wie Iams erläutert, müssen die Unternehmen parallel dazu einpaar organisatorische Schritte durchlaufen. Sie betreffen Mitarbeiter, Prozesse, Governance, Policy und Finanzierung. Eine der Schlüsselfragen lautet: Wie wirkt sich eine Private-Cloud-Struktur auf die Budgets und den Geldfluss in der Organisation aus?
Eine Public Cloud setzt eigentlich voraus, dass die Anwender für alles bezahlen, was sie nutzen. Diese Rückvergütung ist ein integraler Teil jeder Public-Cloud-Umgebung. Die Fachbereiche bekommen ja keine festen Kapazitäten, sondern fordern sie an - so einfach, wie es das Ausfüllen eines Web-Formulars ist. Da muss einfach gesichert sein, dass sich die Bereitstellung der Ressourcen auch rechnet.
Betriebsmodell und Servicekatalog
Paul Cameron, verantwortlich für Enterprise Services beim australischen Finanzdienstleister Suncorp Group, hat den Umbau des Data Center zur Private Cloud bereits hinter sich. Als das Unternehmen mit der Planung begann, schuf es zunächst ein Service-basierendes Betriebsmodell - und einen Servicekatalog. Letzterer enthält eine Liste der automatisierten Services für den internen Gebrauch. Die Anwender können über ein Selbstbedienungs-Portal darauf zugreifen.
Ein Erfolgsfaktor für den Katalogaufbau bestand darin, alle Informationen über die IT-Assets und Geschäftsanwendungen von Suncorp in einer CMDB (Configuration Management Database) zusammenzutragen. Sie wird von allen wichtigen IT-Serviceprozessen des Unternehmens genutzt, also von Incident-, Problem-, Asset- und Change-Management.
Laut Cameron können die Anwender bei Suncorp heute ins Self-Service-Portal gehen und dort Ressourcen oder Services anfordern. Ist der Request platziert, geschieht das Fulfillment in den meisten Fällen vollautomatisch. Rund 80 Prozent der Data-Center-Services seien mittlerweile von dem automatisierten Portal erfasst.
Firewalls mit Sicherheitslöchern
Im Allgemeinen ziehen die Unternehmen Private Clouds den Public Clouds vor, weil sie die Kontrolle über ihre Daten behalten wollen - aus Gründen der Sicherheit und Compliance. Doch Cameron gibt zu bedenken, dass auch in einer Private Cloud das Security-Thema neu durchdacht werden muss. Beispielsweise lieferten herkömmliche Firewalls bisweilen wenig zufriedenstellende Ergebnisse, wenn sie in einer Public-Cloud-Umgebung eingesetzt würden. Das liege daran, dass Workloads bisweilen unbemerkt in weniger geschützte Bereiche des Firmennetzes verschoben würden. Suncorp antwortet auf diese Herausforderung mit einer Virtualisierung der Firewalls.
Als Basisbausteine einer Private Cloud nennt Jeffrey Driscoll, Systemingenieur beim Beratungsunternehmen Precision IT Group LLC, Server, Speicherplatz (beispielweise SAN) und Virtualisierungssoftware. "Dann fängt man an, einen Cluster zu bauen", erläutert er, "und wenn der fertig ist, rückt die Kapazitätsplanung in den Fokus". Darunter verstehen die Experten die Kunst, vorauszuberechnen, wie es sich auf die Business-Anforderungen auswirkt, wenn der Cluster um Server und andere Ressourcen erweitert wird.
Kapazitätsplanung ist eine wichtige Komponente des Clusters, denn dabei geht es um die Performance der Cloud. Wenn hier etwas schief läuft, steht das Unternehmen am Ende mit einem nutzlosen System da - oder es muss sich wieder in ein konventionelles Data-Center-Modell hineinzwängen, um den Laden am Laufen zu halten.
Die meisten Organisationen tun sich schwer damit, Kapazitäten vorauszuberechnen und zu überwachen. Um die Anwender bei Laune zu halten, sollten sie deshalb immer ein wenig Extrakapazität bereithalten - auch wenn dadurch ein gewisser Teil an Hardware müßig herumsteht. Im Vorteil ist, wer eine Kapazitätshistorie führt, also nachhält, wann wie viele Ressourcen benötigt wurden. Das hilft auch gegen die Tendenz, aus Vorsicht zu viel Ressourcen bereitzuhalten. Eine elegante Lösung besteht darin, den nicht zu deckenden Kapazitätsbedarf aus der Public Cloud zu beziehen.
Wo Management-Tools nötig sind
Nun ist also der Cluster in Betrieb genommen, und die virtuellen Server können bereitgestellt werden. Und damit existiert eine Schichtenarchitektur, die Server-, Netz- und Virtualisierungsebene umfasst. Auf jeder dieser Ebenen gibt es ein Management-Wekzeug. Management-Tools sind beispielsweise nötig, um die physische und die virtuelle Infrastruktur zu verbinden. Die Werkzeuge sollten so gewählt werden, dass sie eine einheitliche Sicht über die Ausführungsumgebung gewährleisten.
Die Management-Ebene der Infrastruktur umfasst die Handhabung der virtuellen Maschinen, des Speichers, der Backup- und Recovery-Funtionen etc. Die Tool-Anbieter werfen sich häufig in die Brust, dass ihre Produkte die Private-Cloud-Infrastruktur abdecken. Aber der Kunde solle sich genau anschauen, welche Funktionen die Software tatsächlich abdeckt.
Kaufen oder selber bauen?
Die Ebene des Service-Level-Managements widmet sich den Workloads auf einer abstrakteren Ebene. Hier kommt die Automatisierung ins Spiel. Traditionelle Management-Tool-Anbieter wie IBM ("Tivoli") und HP ("Insight") reklamieren für sich, bereits Automation-Management-Werkzeuge zu offerieren. Dasselbe gilt für CA, LineSider, DynamicOps, VMware und BMC.
Der Nachteil fertiger Management-Werkzeuge ist, dass sie meistens an die jeweilige Umgebung angepasst werden müssen. Soll man sie also besser selbst entwickeln? - Nur, wenn die hauseigene IT-Truppe willens und in der Lage ist, sie zu pflegen und weiterzuentwickeln.
Ein Kompromiss besteht darin, Cloud-Stacks mit gemischten Komponenten zu bauen, indem man Tools unterschiedlicher Anbieter miteinander kombiniert. Bleibt die Frage: Wer ist zuständig, wenn es ein Problem gibt?
Diese Frage erübrigt sich, wenn man einen einzigen Anbieter auswählt, beispielsweise Microsoft oder VMware. Die Kehrseite der Medaille ist das berüchtigte Vendor Lock-in.
Open Source Software - beispielsweise vom OpenStack-Projekt oder von Abiquo, Cloud.com, Eucalyptus oder Red Hat - ist sicher eine gute Wahl. Die Software ist nicht nur quasi kostenlos zu haben, sondern bietet auch mehr Flexibilität als Produkte, die für eine physische CPU lizenziert werden müssen. Wie sattsam bekannt, ist die Lizenzierung proprietärer Software in einer virtualisieren Umgebung ein Thema für sich.
Generell ist davon abzuraten, seine Umgebung auf dem Stack eines einzigen Anbieters zu errichten - vor allem dann, wenn dieser Stack nur innerhalb der Herstellerwelt funktioniert. Zumindest sollte man sich die Option offen halten, die Werkzeuge Dritter oder Eigenentwicklungen zu integrieren. Es gibt kein kommerzielles Produkt, das wirklich jedes IT-Management-Bedürfnis in der Private Cloud abdeckt. Irgendwie muss man immer unterschiedliche Produkte und Hersteller zusammenbringen sowie ein eigenes User-Interface darüberbauen. Clevere Unternehmen kombinieren Tool-Sets wie die Server-Automation-Suite von HP oder die Patrol-Suite von BMC miteinander, so berichtet der Cloud-Computing-Experte Deacon von Verizon.
Marktkonsolidierung in Sicht
Ist das Management von einer einzigen Konsole aus eigentlich eine Option mit Aussicht auf Verwirklichung? Wie Iams einräumt, wird dies nicht jedem Unternehmen gelingen. Aber die Reduzierung auf zwei oder drei Konsolen wäre immerhin schon ein Fortschritt gegenüber den Dutzenden, die derzeit in vielen IT-Abteilungen bedient werden wollen.
Frank Gillett, Analyst bei Forrester Research, ist skeptisch, ob die sich die Management-Konsolen überhaupt so weit verringern lassen. Seiner Ansicht nach ist es "unrealistisch, zu glauben, dass wir viele dieser Tools zur Zusammenarbeit bewegen können."
Allerdings dürfte sich das Problem teilweise von selbst lösen, so Gillett: "Der Markt wird dramatisch schrumpfen; zahlreiche Akqusitionen werden nur eine Handvoll Anbieter übrig lassen, die dann besser integrierte Funktionen offerieren". Vielen IT-Verantwortlichen komme diese Entwicklung entgegen. Sie hätten ohnehin Bedenken, die Technik für ihre Datenzentren von einer Startup-Firma zu beziehen, die in ein oder zwei Jahren vom Markt verschwunden sein könnte.
Wie Deacon ergänzt, haben beispielsweise IBM, HP, CA und BMC längst begonnen, Cloud-Startups aufzukaufen und deren Produkte in ihre Portfolios einzubeziehen. So kaufte HP OpsWare, BMC absorbierte BladeLogic, und CA schlug gleich mehrmals zu - mit Nimsoft, Oblicore, 3Tera etc.
"Wir befinden uns erst am Anfang", mahnt Gillett, "irgendwann werden wir Private-Cloud-Management-Werkzeuge miteinander verbinden können, aber uns steht eine chaotische Übergangszeit bevor."
Diese Übergangszeit setzt die IT-Verantwortlichen hohem Druck aus. Die Business-Anwender drängen heute schon in Richtung Cloud Computing. Und wer nicht schnell mit einer Private Cloud antworten kann, riskiert, dass sich die User selbstständig in der Public Cloud bedienen. Um mit den externen Angeboten konkurrieren zu können, müssen die Inhouse-Services nicht nur gleichwertig, sondern besser und nutzerfreundlicher sein. (qua)
Die Industrie entwickelt sich
Eine Reihe von IT-Anbietern wirbt bereits damit, Werkzeuge für den Aufbau von Private Clouds im Portfolio zu haben. Die von Forrester Research im August vergangenen Jahres getroffene Auswahl erhebt keinen Anspruch auf Vollständigkeit. Sie umfasst:
-
"Cloud Lifecycle Management" von BMC Software Inc.,
-
"3Tera AppLogic" von CA Inc.,
-
"Vblock" von Cisco/EMC/VMware,
-
"OpenCloud" von Citrix Systems Inc.,
-
"CloudStack 2.0" von Cloud.com Inc.,
-
"Virtual Integrated System" von Dell Inc.,
-
"Elastic Computing Platform" von Enomaly Inc.,
-
"Eucalyptus 2.0" von Eucalyptus Systems Inc.,
-
"BladeSystem Matrix" von Hewlett-Packard Co.,
-
"CloudBurst" von IBM,
-
"NewScale 9" von NewScale Inc.,
-
"Platform ISF" von Platform Computing Corp.,
-
"Silver" von Tibco Software Inc. sowie
-
"vCloud" von VMware.