IBM, HP, Fujitsu und Cisco

Cloud Computing aus der Box

21.07.2011 von Johann Baumeister
Die Großen der IT-Branche drängen mit Komplettlösungen in den Cloud-Computing-Markt. Was bieten die Pakete von IBM, HP, Fujitsu und Cisco?
Foto: AA+W, Fotolia.com

Für die Nutzer von Public-Cloud-Diensten spielt die zugrundeliegende Cloud-Infrastruktur kaum eine Rolle. Sie obliegt in der Regel dem Anbieter. Wer jedoch im eigenen Haus eine Private Cloud aufbauen und betreiben will, sollte einen Blick auf die Komplettangebote der großen Anbieter werfen. Sie bündeln nicht nur Server-, Storage- und Netzwerk-Hardware, sondern auch eine Reihe von Tools, mit denen sich Cloud-Services im Unternehmen entwerfen, betreiben und verwalten lassen. Wir haben uns die wichtigsten dieser „Cloud-Boxen“ im Markt angesehen.

Hewlett-Packard: HP CloudSystem

Das Cloud-Angebot von HP umfasst fertig konfigurierte Cloud-Dienste sowie Tools zum Aufbau und der Verwaltung von privaten und Public Clouds. Ein zentraler Baustein ist das HP CloudSystem. Dabei handelt es sich um eine komplette und integrierte IT-Umgebung, mit der Unternehmen IT-Services in hybriden Cloud-Umgebungen bereitstellen, verwalten und nutzen können. HP CloudSystem umfasst die Plattform HP BladeSystem Matrix und die Software HP Cloud Service Automation. Damit schafft der Anbieter eine einheitliche Steuerung, Sicherheit und Compliance für Anwendungen sowie für physikalische und virtuelle IT-Infrastrukturen.

Ein Schlüsselelement ist dabei die Konvergenz der IT-Komponenten in Form der Blade System Matrix. In der Matrix vereint HP alle wichtigen IT-Ressourcen in einem Verbund. Konkret sind das Blades als Rechenknoten (Compute), Speichersysteme (Storage) zur Ablage der Daten und Applikationen, das Netzwerk und die Verwaltungssoftware. HP bezeichnete die Blade System Matrix auch als Data-Center-in-a-Box, also als Rechenzentrum in einer geschlossenen Einheit. Die Marketiers des IT-Konzerns stellen sie auch als Referenz für HPs Converged Infrastructure dar. Die Matrix umfasst auf engstem Raum alles, was für den Betrieb von Anwendungen notwendig ist.

Homepage-Teaserbild: AA+W, Fotolia.de

Die Blaupause der HP Cloud Reference Platform

Den architektonischen Unterbau des HP Cloud Computing bildet die „HP Cloud Reference Platform“. Die Software Insight Dynamics dient als darüber liegende Verwaltungsschicht. Hinzu kommen die Virtualisierungsdienste von VMware vSphere oder Microsoft Hyper-V. Die Orchestrierung erfolgt durch einen Cloud Controller. Sie liefert die Vorlagen für die Virtualisierung.
Zur Modellierung der Systeme liefert HP den Insight Orchestrator. Da moderne IT-Dienste immer aus mehreren Serversystemen und Speichern bestehen, müssen auch die Beziehungen der einzelnen Server-Dienste zueinander modelliert und abgebildet werden. Dies erfolgt in den „Cloud Maps“. Sie legen die Architektur einer Anwendung fest. Einzelne Server werden in einem Template beschrieben. Die Cloud Maps führen die Konzepte fort, die VMware in den vApps festlegt. Eine vApp umfasst mehrere Server-Systeme in einer vSphere-Applikation. Die Definition der Cloud Maps wiederum erfolgt durch spezielle „Architekten“, den Cloud Map Designern.

Cloud Maps definieren die Applikationsumgebungen

Foto: CW

Diese Cloud Maps werden dann den Anwendern bereitgestellt. Diese wiederum definieren dann anhand der vorkonfigurierten Cloud Maps ihren Dienst selbst. Dazu bedarf es noch eines weiteren Moduls, dem Self Service Portal. Es stellt die oberste Schicht der HP Cloud Reference Platform dar. Im Self Service Portal wird ein Katalog der Private-Cloud-Services veröffentlicht. Der Katalog liefert damit die oberste Stufe eines Cloud-Dienstes. Die Umsetzung eines Cloud-Dienstes auf die Rechner-Blades erfolgt durch die dazwischenliegenden Module des Designers, des Orchestrators und aller weiteren Softwaresysteme. Hinzu kommen Skripte, Workflows und eine Reihe weiterer Automatismen.

Vor- und Nachteile einer Sicherung in der Cloud
Alles sicher(n) in der Cloud?
Eine Speicherung der eigenen Daten außerhalb des eigenen Büros beziehungsweise der eigenen Firma bietet Vor- und Nachteile:
Vorteile einer Sicherung in der Cloud
Eine Speicherung der eigenen Daten außerhalb des eigenen Büros beziehungsweise der eigenen Firma bietet eine Menge Vorteile:
Vorteil 1:
Bereitstellung und Betreuung von Speichersystemen und -Medien im eigenen Büro/Unternehmen entfallen in der Regel komplett.
Vorteil 2:
Grundsätzlich gibt es keine Beschränkung in Bezug auf den Speicherplatz: Wer mehr Platz für seine Daten braucht, erwirbt einfach zusätzlichen Speicherplatz von seinem Provider.
Vorteil 3:
Dadurch sind natürlich auch die Kosten besser kalkulierbar. Der Anwender zahlt nicht mehr für die Hardware, deren Betreuung und Betrieb. Er zahlt nur für den Speicherplatz und die damit verbundenen Dienste.
Vorteil 4:
Zudem hosten professionelle Anbieter ihre Storage-Angebote in Rechenzentren mit einer entsprechend hohen Sicherheit. Sie garantierten Backups und damit auch eine Wiederherstellung der Daten.
Nachteile einer Sicherung in der Cloud
Neben diesen offensichtlichen Vorteilen sollte man sich aber auch der Probleme bewusst sein, die beim Einsatz einer derartigen Lösung auftauchen können:
Nachteil 1:
Eine schnelle und stabile Anbindung an das Internet ist Pflicht - ohne sie ist eine solche Lösung nicht sinnvoll: In einer ländlichen Gegend sollte also zunächst einmal sichergestellt werden, dass eine entsprechende Internet-Verbindung überhaupt verfügbar ist.
Nachteil 2:
Ebenso wichtig ist ein vertrauenswürdiger Provider: Ein Anwender möchte gerne wissen, wer seine Daten wo (in Deutschland/ Europa oder gar auf einem anderen Kontinent?) speichert und sichert.
Nachteil 3:
Mindestens so wichtig: Die Kontinuität des gewählten Dienstes/Dienstleisters, denn niemand möchte jedes Jahr nach einem neuen Anbieter suchen, weil der gewählte Provider die Dienste vielleicht aus Rentabilitätsgründen einstellt.
Nachteil 4:
Die Sicherheit und hier speziell die Sicherheit der Übertragung: Im Idealfall stellt der Anbieter eine End-to-End-Verschlüsselung bereit und die Daten werden auf seinen Systemen nur verschlüsselt abgelegt, so dass selbst die Systemspezialisten des Providers diese Daten nicht einsehen können.

IBM: System x und CloudBurst

IBM liefert mehrere Cloud-Systeme. In CloudBurst fasst IBM die Hardware, Software und Services in einer vorgefertigten Einheit für das Private-Cloud-Computing zusammen.
Foto: IBM

IBM bietet mehrere Systeme für den Aufbau einer Cloud an. Das Unternehmen offeriert ein umfangreiches Angebot an Hardware, Software und Services, die es in unterschiedlichen Paketen auf den Markt bringt. Deren Ziel liegt in einer umfassenden Unterstützung aller heute verfügbaren Hardwaresysteme, den Softwareplattformen und Services. Dies reicht von x86-Servern über Power-Systeme bis hin zum Großrechner. Dabei lassen sich Workloads auf Mainframes, POWER7- und x86-Systeme verteilen und als gemeinsames virtualisiertes System verwalten.

Das „IBM System X Privat Cloud Offering“ besteht aus Standard Hardwarekomponenten und Rack-Servern. Als Virtualisierungsplattform kommt Hyper-V von Microsoft zum Einsatz. Das System wird durch Partner vertrieben und adaptiert. Die Systemreihe „IBM System X und VMware“ wird mit den Hypervisoren von VMware gebündelt. Die Hardwareplattform der IBM System X und VMware basiert auf Blade-Systemen und einem Blade-Chassis.

Das Flaggschiff der IBM Cloud-Systeme ist CloudBurst / ISDM. Die Hardware basiert auf Rechner-Blades. Die Hypervisoren können von VMware, Microsoft, Citrix oder anderen wie etwa KVM stammen.
Die CloudBurst umfasst laut Hersteller sämtliche Hardware, die zum Betrieb von Anwendungen benötigt wird. Dazu gehören x86-Blades als Serversysteme, Speicher und die Netzwerktechnik. Die CloudBurst wird als vorkonfiguriertes Rechnersystem montiert und geliefert. Die Verwaltung erfolgt durch die Tivoli-Familie, wie etwa den Tivoli Provisioning Manager. Als Einsatzzweck für den CloudBurst sieht IBM vor allem dynamische Cloud-Strukturen. Durch ein Self Service Portal kann der Entwickler sich dabei eine Ausführungsumgebung selbst zusammenstellen. Die Grundlage dazu stellen Templates dar. Eingeschlossen dabei sind auch Workflows für die Freigabe und Steuerung des Genehmigungsverfahren, der Verrechnung und des Deployments.

Die architektonische Grundlage der IBM Blades ist in der Blade Server Foundation festgeschrieben. Spezifiziert sind darin die Hardwareverwaltung, das Monitoring der Hardware, die Virtualisierung des Netzwerks und der Speicher, das Energiemanagement und die allgemeinen Verwaltung der virtuellen Strukturen. Zusätzlich packt IBM bei der CloudBurst Software für „Usage und Accounting“ und „Service Automation“ dazu. Diese beiden Bausteine helfen bei der Verwaltung von Service-Templates, der Verrechnung der Nutzung an die Fachbereiche und ähnlicher fortgeschrittener Verwaltungsaufgaben. Das Unternehmen adressiert mit seinem Angebot unterschiedliche Anwendungsszenarien der Fachbereiche. In vordefinierten „Workloads“ fasst IBM seine Ansätze zusammen. Diese Workloads sind beispielsweise für den Bereich „Analytics“ (Business Intelligence), Collaboration, Software Development, Test oder Desktop-Virtualisierung verfügbar. Bei den Workloads handelt es sich im Prinzip um die Beschreibungen von Diensten. Die Abbildung auf die notwendige IT-Plattform übernehmen die Toolsets der Tivoli-Familie, darunter etwa der Tivoli Service Automation Manager. Mit diesem will IBM Geschäfts- und IT Prozesse miteinander verknüpfen und auf der Infrastruktur implementieren.

Sind Sie schon bereit für eine Private Cloud?
Wahrscheinlich nicht!
Denn nach Schätzung von Forrester Research sind höchstens fünf Prozent der IT-Abteilungen wirklich in der Lage, Private-Cloud-Services anzubieten. Wie der Analyst James Straten in einem aktuellen Forrester-Report sagt, ist der IT-Betrieb "Cloud-ready", wenn er folgende Bedingungen erfüllt:
Punkt 1:
Es gibt standardisierte Prozesse für Auslieferung, Konfiguration und Verwaltung von virtuellen Maschinen.
Punkt 2:
Deployment und Management der virtuellen Maschinen laufen automatisiert und Tool-gestützt ab.
Punkt 3:
Die Endanwender können über Self-Services real auf die angebotenen Dienste zugreifen.
Punkt 4:
Alle Geschäftseinheiten sind bereit, dieselbe Infrastruktur zu nutzen.
Bevor sie in Richtung Private Cloud ziehen können, ...
müssen die IT-Abteilungen noch effizienter in Sachen Server-Virtualisierung werden. Die meisten von ihnen verfügen eben nicht über konsistente Abläufe, mit denen sich Inbetriebnahme, Nutzung und Eigentumsverhältnisse von virtuellen Maschinen im Auge behalten lassen. So kommt es dann zu "Virtual Machine Sprawl" - oder auf Deutsch ausgedrückt: Es wächst ein schwer durchschaubarer Dschungel von virtuellen Maschinen. Damit rückt der ökonomische Nutzen der Private Cloud in weite Ferne, so Forrester.
Darüber hinaus müssten die IT-Abteilungen lernen, ...
einen ganzen Pool von virtualisierten Servern zu managen. Bislang sind die meisten lediglich auf einzelne virtuelle Maschinen oder Workloads ausgerichtet, so der Forrester-Report.
Ist das Virtualisierungshaus erst mal errichtet, ...
... können die Unternehmen die Private Cloud ins Visier nehmen. Forrester empfiehlt hier die folgenden Schritte:
Schritt 1:
Fangen Sie mit nicht-kritischen Workloads an und beweisen Sie, dass es funktioniert.
Schritt 2:
Sobald eine Geschäftseinheit gewillt ist, in Cloud Computing zu investieren, errichten Sie dafür eine brandneue Umgebung.
Schritt 3:
Verschaffen Sie sich die Unterstützung des Topmanagements, am besten einen ausdrücklichen Auftrag, wonach die Business Units einen gemeinsamen Pool virtueller Resourcen nutzen müssen.
Schritt 4:
Weisen Sie die Vorteile nach - dramatisch schnellere Inbetriebnahme und deutlich geringere Kosten.
Schritt 5:
Integrieren Sie Public Clouds als Ergänzung zur internen Cloud.

Cisco: Unfied Computing System für die Cloud

Der Netzausrüster Cisco ist erst seit wenigen Jahren als umfassender Anbieter von IT-Hardware aktiv. Sein Debüt als Systemlieferant gab das Unternehmen mit der Vorstellung des Unified Computing System (UCS). Darin bündelt Cisco seine Netzwerkbaugruppen mit den Server-Systemen und Verwaltungssoftware. Über Fabric Interconnect-Switche erfolgt dabei die Anbindung der Speichersysteme und des Datennetzwerks. In den Interconnect-Modulen werden somit Fibre Channel (FC)-SAN und LAN zusammengebracht. Im Chassis befinden sich dabei keine Switche mehr. Gleichzeitig wird damit die Anzahl der benötigten Netzbaugruppen reduziert. Die Anbindung der Systeme erfolgt über schnelle 10 GBit-Interfaces. Diese können durch Virtual Interface Cards in bis zu 128 logische Adapter für den Server aufgesplittet werden. Diese logischen Adapter können Ethernet und Fiber Channel Adapter sein.
Die Kommunikation der Speichersysteme erfolgt auf der Server-Seite über Fabric-Interconnect–Switche durch Fibre Channel over Ethernet (FCoE). Im Switch erfolgt dann die Umsetzung von FCoE in das native Fibre-Channel-Protokoll. Als Server setzt Cisco auf Blades mit 2 Sockets und bis zu 384 GByte RAM. Es stehen aber auch 4-Socket Systeme zur Verfügung. Diese Systeme zielen auf den Einsatz in virtuellen Szenarien.

Die dritte zentrale Komponente, die für den Betrieb eines Applikationsdienstes notwendig ist, der Speicher, bleibt dabei außen vor. Die Speichersysteme werden über Standardschnittstellen mit den Rechnersystemen verknüpft. Hierbei setzt Cisco auf die Speichersysteme von EMC und NetApp.
Die Verwaltung erledigt eine integrierte Management-Applikation. Diese läuft direkt in den Fabric-Interconnect-Switches. Damit wird die Administration der gesamten Umgebung zentralisiert. Die Management-Applikation wird zur Verwaltung des Netzwerkes (LAN und SAN) und der Einstellungen der Server herangezogen. Zu diesen Basiseinstellungen der Server gehören die Angaben im Server-BIOS, der Netzwerkanbindung und die Boot-Reihenfolge.

Die Konfiguration der Server wird in Server-Profilen hinterlegt. Dabei handelt es sich um XML-Dateien, die Hard- und Software eines Servers beschreiben. Durch das Laden eines Serverprofils auf eine Serverhardware wird auch das Boot-Image des Servers bestimmt. Booten kann ein Server vom SAN, dem LAN oder einer lokalen DAS-Platte. Durch das Bootimage wird anschließend die Rolle und Funktion des Servers bestimmt. Durch eine Funktion, die Cisco als „Hardware-vMotion“ bezeichnet, lässt sich der Einsatzzweck eines Servers leicht ändern und anpassen. Hardware-vMotion ermöglicht die dynamische Neukonfiguration eines Servers. So kann beispielweise ein Server der tagsüber als Träger von virtuellen Desktops eingesetzt wird, nachts kurzerhand zum Backup-Server werden.

Als Hypervisor zur Virtualisierung setzt CISCO auf die Software von VMware. Der Virtualisierungsspezialist steuert den Hypervisor bei und liefert mit vCenter und vCloud Director ein Toolset zur Verwaltung von Clouds.

So finden Sie den richtigen Cloud-Anbieter
So finden Sie den richtigen Cloud-Anbieter
Sicherheit und Kontrolle in der Cloud? Das muss sich nicht widersprechen, wenn der Anwender bei der Auswahl seines Cloud-Anbieters auf einige Kriterien achtet. Fünf Aspekte, die Sie bei der Wahl des Providers berücksichtigen sollten.
1. Datenspeicherung in der EU
Der Cloud-Anbieter muss preisgeben, an welchen Orten er Daten und Anwendungen speichert und verarbeitet. Es sollten ausschließlich Standorte in der EU, besser noch in Deutschland, akzeptiert werden. Wenn weitere Subunternehmer beteiligt sind, müssen diese benannt werden.
2. Sicherheitsarchitektur
Der Provider sollte die Konzeption seiner Sicherheitsarchitektur darlegen können. Dies schließt einzelne Systemkomponenten ebenso wie infrastrukturelle und technische Aspekte ein. Insbesondere sollte dabei klar werden, wie bei mandantenfähigen Systemen - so genannten Multi-Tenant-Systemen - eine verlässliche Trennung der Kunden gewährleistet wird. Angaben zur Sicherheitsarchitektur umfassen zum Beispiel Informationen zum Rechenzentrum, zur Netzsicherheit und zur Verschlüsselung.
3. Rechte-Management
Der Anbieter sollte erklären können, wie er Nutzer sicher identifiziert. Dazu gehört etwa eine Erläuterung seines ID-Managements und wie er damit sicherstellt, dass der "normale" Anwender etwa im Unterschied zum Administrator nur Zugriff auf Daten hat, die für ihn vorgesehen sind.
4. Datenschutz
Speichert oder verarbeitet der Cloud-Anbieter personenbezogene Angaben, dann ist ein Datenschutz nach deutschem Recht zu gewährleisten. Dar- über hinaus sollte der Anwender prüfen, inwieweit Datenschutzrichtlinien und -gesetze, denen er selber unter- liegt, vom Cloud-Anbieter eingehalten werden können.
5. Datenimport und -export
Grundsätzlich sollte klargestellt werden, dass die Daten im Besitz des Kunden bleiben. Der Nutzer muss deshalb auch die Möglichkeit haben, seine Daten jederzeit wieder exportieren zu können. Das ist nur möglich, wenn relevante Daten in einem anbieterunabhängigen Format gespeichert oder aber in ein solches umgewandelt werden können.

Fujitsu: Building Blocks und Blade Systems für die Cloud

Fujitsu bietet mehrere Konstellationen seiner für die Cloud vorgesehenen Systeme. Im Zentrum der größten Cloud-Box steht die Primergy CX 1000. Dieses System zielt in erster Linie auf den Einsatz bei Hostern oder großen Unternehmen. Die Blade-Systeme BX 400 und BX 900 sind kleiner und weisen eine feinere Skalierbarkeit auf. Durch die Nutzung von Rechner-Blades lässt sich die Leistung hierbei in kleinen Stückelungen anpassen. Vollständig der Cloud verschrieben sind die Systeme, die als DI-Block (Dynamic Infrastructure) bezeichnet werden. Alle Systeme sind oder werden als Referenzarchitekturen im Rahmen des Intel Cloud Builder Programmes zertifiziert

Für Hoster: CX 1000

Das Modell CX 1000 ist Rack-basiert. Es umfasst bis zu 38 19 Zoll-Servereinschübe. Die Netzwerkanbindung wird durch bis zu 5 integrierte Switches gebildet. Hierbei setzt Fujitsu auf die Modelle von Brocade. Das Storage-Subsystem wird extern angebunden. Die Kühlung des Racks erfolgt durch spezielle Ventilatoren an der Oberseite. Dadurch werden Kaltgänge überflüssig. Die Racks lassen sich so direkt aneinanderstellen. Der Zugang zum System erfolgt ausschließlich auf der Vorderseite. Fujitsu liefert das System vollständig und verkabelt es als eine Einheit. Der Cloud-Software-Stack wird dabei durch Vmware´s vCloud Director gebildet. Zur Verwaltung des Systems bietet Fujitsu seine Tools aus der Reihe „ServerView“. Die Management-Software von „ServerView“ besteht aus einer Sammlung an Tools unter anderem zum Server-Deployment und dem Fernzugriff.

Blades: BX400 und BX900

Die Private-Cloud-Infrastruktur der beiden Blade-Systeme BX400 und BX900 basiert ebenfalls auf den Spezifikationen des Intel Cloud Builder-Programms. Die BX400 kann auf 10 Blades und die BX900 auf 18 Blades ausgebaut werden. Dabei stehen Blade Server mit 9, 12 oder 18 DIMM-Speicherslots zur Verfügung. Als Speicher kommt das Fujitsu-Produkt EternusDX 90 zum Einsatz. Das Management des Systems erfolgt durch einen Managementserver RX 300. Als Verwaltungssoftware zum Aufbau von Cloud-Strukturen nutzt der Hersteller den Microsoft Virtual Machine Manager und dessen Self Service Portal.

DI Building-Blocks

Der Ressource Orchestrator hilft bei der Provisionierung und Orchestrierung einer Fujitsu-Cloud.

Die dritte Systemreihe sind die DI-Building Blocks. Dabei handelt es sich um Bausteine für Server, Storage und Netzwerkkomponenten. Diese werden für bestimmte Einsatzszenarien im Rechenzentrum vorspezifiziert, getestet und integriert, so dass sie schnell in bestehende Rechenzentrums-Infrastrukturen integriert werden können. Für die Verwaltung von Cloud-Strukturen hat Fujitsu das ServerView-Toolset erweitert: Die neuen Module heißen Ressource Coordinator Virtual Server Edition (RCVE) und Ressource Orchestrator (ROR). Letzteres hilft bei der Provisionierung und Orchestrierung von Server-, Storage- und Netzwerk-Ressourcen. Fujitsu offeriert seine DI Blocks ab dem 4. Quartal dieses Jahres. (wh)