Cloud Computing

IT auf dem Weg in die Wolke

13.02.2008 von Martin Bayer
Unter dem Stichwort "Cloud Computing" wollen die Anbieter das Utility-Modell wiederbeleben. Doch Konzepte, wonach der Kunde seine IT-Arbeitsumgebung wie Strom bezieht, bleiben noch die Ausnahme.

"Die IT-Abteilung wird wohl kaum überleben" und "Der größte Teil der Business-IT wird in die Weiten des Internets abwandern" – mit diesen Thesen hat Nicholas Carr die weltweite IT-Szene Anfang des Jahres in Aufruhr versetzt. Die IT-Versorgung werde über kurz oder lang auf ein Utility-Modell umschwenken, prognostiziert der Visionär. Carr vergleicht die Entwicklung gerne mit der Elektrizitätsversorgung. Hätten Betriebe in den Anfangszeiten noch eigene Generatoren betrieben, sei diese Aufgabe in der Folge mehr und mehr zentralen Stromerzeugern und -versorgern zugefallen.

Laut den Prognosen des IT-Visionärs Nicholas Carr werden IT-Ressourcen in Zukunft nur mehr online zur Verfügung gestellt werden.

Dieser Vergleich hinkt, monieren Kritiker. Die Business-IT stelle viel kompliziertere Anforderungen als eine Stromversorgung. Zudem werde das Gros der Unternehmen davor zurückschrecken, mit der IT den eigenen Lebensnerv aus der Hand zu geben. Vielfach fehle schlichtweg das Vertrauen zu den Dienstleistern. Es sei daher zweifelhaft, ob die von Carr vorhergesagte Transformation in diesem Umfang eintreten werde.

Carr räumt ein, dass die IT-Provider derzeit noch nicht in der Lage seien, entsprechende Utility-Services anzubieten. Dazu müssten sie sicherer, verlässlicher und effizienter werden. Es sei jedoch nur eine Frage der Zeit, bis diese Hürde genommen sei.

Hersteller arbeiten an neuen Konzepten

Tatsächlich arbeiten viele IT-Größen unter Schlagworten wie "Cloud Computing" beziehungsweise "Utility Computing" an neuen Konzepten. Beispielsweise bietet Sun Microsystems seinen 2006 gestarteten Dienst "Network.com" mittlerweile in 25 Ländern an. Die Kunden erhalten über das Netz Zugriff auf die Rechenleistung eines Grid-basierenden Rechenzentrums. Der Anbieter verlangt dafür einen Dollar pro Prozessor und Stunde. Abgerechnet wird dabei nur nach tatsächlich verwendeten CPU-Zyklen. Das heißt, Gebühren sind nur dann fällig, wenn auch Daten verarbeitet wurden, versprechen die Verantwortlichen von Sun Microsystems.

Der Utility-Computing-Dienst soll kontinuierlich ausgebaut werden. Mussten die Kunden am Anfang ihre Applikationen für das Grid-Netz selbst mitbringen, gibt es mittlerweile einen Softwarekatalog, aus dem die Nutzer auswählen können. Derzeit können interessierte Kunden aus einem Katalog von über 40 Anwendungen das Passende aussuchen. Allerdings beschränken sich die feilgebotenen Programme zum überwiegenden Teil auf Speziallösungen aus dem Forschungs- und Entwicklungsumfeld wie beispielsweise 3D-Modellierung und -Rendering sowie biowissenschaftliche und mathematische Anwendungen. Grundsätzlich stehe die Plattform aber jedem interessierten Entwickler offen, versucht der Anbieter die Independent Software Vendors (ISVs) zu locken. Mit der Dienstleistung "Sun Network.com Connection" will man den Softwareentwicklern neue Geschäftsmodelle schmackhaft machen.

Big Blue startet Blue Cloud

Auch IBM ist bereits seit etlichen Jahren in Sachen Grid-Computing aktiv. Hauptabnehmer der Rechenservices sind Universitäten, die damit beispielsweise Leistungsspitzen für aufwändige Simulationsberechnungen abfedern. Mit der im vergangenen Herbst gestarteten Initiative "Blue Cloud" beabsichtigt der Konzern, das Thema aus der Exotenecke herauszuholen und stärker zu kommerzialisieren.

Allerdings wird das IBM-Angebot den Anforderungen der reinen Lehre des Utility-Computings, wonach Anwender Computing-Kapazitäten wie Strom aus der Steckdose beziehen, nicht gerecht. Unter Blue Cloud fasst IBM eine Palette von Werkzeugen zusammen, mit deren Hilfe Anwender ihren Rechenzentrumsbetrieb virtualisieren und automatisieren können. Basis dafür bildet die System-Management-Software "Tivoli Provisioning Manager" (TPM). "Blue Cloud wird unseren Kunden dabei helfen, schnell eine Cloud-Computing-Infrastruktur einzurichten", erläuterte Rod Adkins, Senior Vice President Development and Manufactoring von IBM. Mit diesem Ansatz könnten Anwender Komplexität und Kosten bei der Verwaltung ihrer IT-Infrastruktur reduzieren. Ob und wann der Konzern Blue Cloud selbst als Dienstleistung anbietet, steht allerdings noch in den Sternen.

Neben Sun und IBM bringen sich auch die übrigen IT-Größen zunehmend für Utility Computing in Stellung. Beispielsweise bietet Dell im Rahmen seiner Data Center Services (DCS) seit jüngstem auch Unterstützung für Cloud Computing an. Dabei werden Rechenkapazitäten parallelisiert, deren kombinierte Ressourcen dann via Internet bereitgestellt werden. Davon profitieren sollen in erster Linie Anwender mit rechenintensiven Anwendungen wie Internet-Provider, Finanzdienstleister sowie Forschungs- und Bildungseinrichtungen. Fujitsu-Siemens Computers (FSC) will mit dem "Dynamic Data Center" eine neue Generation von Hardware- und Softwarearchitektur bei den Kunden etablieren. Im Fokus steht dabei, Ressourcen zu virtualisieren und Aufgaben zu automatisieren. Damit soll der Betrieb von IT-Infrastrukturen einfacher und effizienter werden. Hewlett-Packard fasst seine Utility-Strategie unter dem Stichwort "Flexible IT" zusammen. Anwender können dabei Ressourcen in HPs Rechenzentren mieten. Das Angebot umfasst neben der Hardware auch Grid-Technik, Infrastruktursoftware und Services. Bis auf einige Spezialanwendungen aus dem Bereich Computer Aided Engeneering (CAE), die HP an seine Flexible-IT-Architektur angepasst hat, müssen die Kunden ihre Software jedoch selbst einbringen.

Software noch nicht reif für Utility-Computing

Im Utility-Computing-Modell von Sun Microsystems finden sich neben den Rechnerknoten auch zwei Softwareschichten, die die Applikationen steuern und verwalten sollen.
Foto: Sun Microsystems

Damit wird ein Dilemma des Utility-Modells deutlich. Flexible Rechenressourcen via Netzzugriff zur Verfügung zu stellen bedeutet für die Anbieter angesichts ausgefeilter Grid- und Virtualisierungstechniken kaum mehr ein Hindernis. Probleme macht vielmehr die Software, die in diesen Umgebungen betrieben werden soll. Nach wie vor sind nur wenige rechenintensive Spezialanwendungen an die Grid-Architektur angepasst. Dazu kommt, dass es den Softwareanbietern offensichtlich schwerfällt, ihre Lizenzmetriken an die flexiblen IT-Infrastrukturen anzupassen.

Weiter sind an dieser Stelle die Anbieter von Software-as-a-Service-Diensten (SaaS) wie beispielsweise Salesforce.com zu nennen. Der Softwarevermieter, der vor Jahren mit Customer-Relationship-Management-Anwendungen (CRM) Pionierarbeit für On-Demand-Angebote leistete, mausert sich zunehmend zum Plattformanbieter. Mit "Force.com" offeriert Salesforce.com Kunden und Entwicklern eine Infrastruktur, auf der sie eigene Softwaredienste entwickeln und später auf der On-Demand-Plattform anbieten können. Tools für die Softwareentwicklung und die Vernetzung der Plattformteilnehmer sowie ein Marktplatz für On-Demand-Applikationen runden das SaaS-Angebot ab. Ziel der Salesforce-Verantwortlichen ist es, den Kunden eine möglichst komplette Softwarepalette zur Nutzung via Web anbieten zu können.

Storage-on-Demand wird stärker gefragt

Neben den Softwarediensten etablieren sich zunehmend auch Speicherangebote im Netz. Die Analysten von IDC rechnen damit, dass die Nachfrage nach Online-Storage in den kommenden Jahren stark ansteigen wird. Angesichts der stetig wachsenden Datenmengen erwarten die Marktforscher bis 2011 ein durchschnittliches jährliches Marktwachstum von 33 Prozent. Weltweit sollen die Anbieter von Speicherservices im Netz dann 715 Millionen Dollar pro Jahr einnehmen.

Mit dem Wachstum wird sich auch das Angebot verändern, glauben die IDC-Analysten. Beschränkten sich die Anbieter bislang hauptsächlich auf einfache Backup-Funktionen, werde es in Zukunft auch verstärkt Tools für Data-Recovery und die Einhaltung von Compliance-Regeln geben. Damit könnte Online-Storage nicht mehr nur für Privatpersonen und Kleinunternehmen, sondern auch mehr und mehr für Mittelständler und Konzerne interessant werden.

Noch tun sich allerdings viele Nutzer schwer, ihre Daten in einem Online-Speicher abzulegen. Groß sind die Befürchtungen, Informationen könnten verloren gehen beziehungsweise in die Hände von Unbefugten gelangen. Dabei sind die Daten im Netz in aller Regel sicherer als auf den Rechnern der Anwender. Die Analysten von Gartner haben herausgefunden, dass 64 Prozent der kleinen und mittelständischen Unternehmen ihre Daten nicht extern sichern. Etwa 60 Prozent der traditionellen Backups seien unvollständig, die Hälfte aller Versuche, Daten wiederherzustellen, schlage fehl, und lediglich ein Viertel aller Tapes würden außer Haus in einer geeigneten Umgebung gelagert.

Diese Fehler können für die Unternehmen katastrophal enden. Systems-Crashs, interne Fehler, Angriffe oder Naturkatastrophen können den gesamten Datenbestand vernichten. Die Folgen sind verheerend. Laut Gartner sind 60 Prozent der Firmen, die einen totalen Datenverlust erlitten haben, innerhalb von zwei Jahren pleite.

Auf der Anbieterseite wird sich in den kommenden Jahren einiges tun, prognostizieren die Marktforscher. Das wachsende Interesse werde weitere Anbieter auf den Plan rufen. Der daraus resultierende Wettbewerb sorge für sinkende Preise und spätestens in einigen Jahren für eine Konsolidierung des Marktes. Außerdem würden die Generalisten unter den Anbietern von Online-Services vermehrt dazu übergehen, zusätzliche Storage-Dienste in ihr Angebot zu integrieren.

Längst in diesem Geschäft ist Amazon mit seinem "Simple Storage Service" (S3). In diesem "Storage-on-Demand"-Dienst lassen sich Objekte bis zu einer Größe von 5 GB ablegen. Laut Anbieter hatten die Nutzer Ende vergangenen Jahres rund zehn Milliarden Objekte in dem Online-Silo gespeichert. Der Preis liegt in Europa bei 18 US-Cent pro Gigabyte und Monat. Noch hapert es aber an der Lokalisierung des Angebots. Bislang gibt es nur eine englischsprachige Fassung. Auch die Abrechnung erfolgt ausschließlich in Dollar. Allerdings haben die Amazon-Verantwortlichen für das laufende Jahr lokalisierte Versionen des Dienstes angekündigt.

Gerüchten zufolge soll bald auch Google mit einem Online-Speicherservice nachziehen. Mit der bislang unter dem Codenamen "MyStuff" gehandelten Offerte sollen Nutzer kostenlos einen begrenzten Speicherplatz im Web erhalten. Wächst der Bedarf darüber hinaus, werden Gebühren fällig. Wie hoch diese sein werden, ist noch nicht bekannt. Auch Microsoft will mit dem "Skydrive" Speicher im Netz anbieten. Kunden sollen bis zu 5 GB Platz bekommen. Über eine Rechtevergabe können dort abgelegte Daten mit anderen Nutzern geteilt werden.

Über die Storage-Offerten hinaus arbeiten die Online-Protagonisten mit Hochdruck an weiteren Angeboten. Google beispielsweise erweitert kontinuierlich die Palette der Google Apps, die sich online über das Portal des Suchmaschinenanbieters nutzen lassen. Auch Microsoft verlagert mit den Live-Diensten mehr und mehr Funktionen aus der Windows- und Office-Welt ins Netz – allerdings mehr als Zusatzprodukte, die eng verknüpft mit den stationär installierten Softwareversionen sind.

Noch einen Schritt weiter in Richtung Utility Computing geht Amazon mit seiner "Elastic Computing Cloud". Kunden können damit Computing-Ressourcen je nach Leistungsgrad zwischen zehn und 80 US-Cent pro Stunde mieten. Dazu kommen weitere Gebühren für die übertragenen Datenmengen. Noch in der Betaphase steckt der Amazon-Service "SimpleDB". Damit sollen Anwender online die Kernfunktionen einer Datenbank nutzen können. Auch hier richten sich die Preise nach der genutzten Zeit sowie dem Umfang des Daten-Up- und –Download.

Fazit

Die Akzeptanz für das Thema Utility- beziehungsweise Cloud-Computing muss noch wachsen. Nach wie vor gibt es Vorbehalte auf Anwenderseite, die eigene IT ins Netz zu verlagern. Meldungen über Systemausfälle bei Salesforce.com und wie erst kürzlich in Amazons Speicherdienst S3, bei dem Kunden sogar Daten verloren haben sollen, machen es für das Utility-Modell nicht leichter. Dabei spielt keine Rolle, dass Daten in der selbst betriebenen Infrastruktur oft gefährdeter sind als im Netz. Doch auch die Anbieter müssen noch mehr tun, um die Idee weiter voranzutreiben. Gerade die Softwarehersteller hängen noch sehr an ihren alten Lizenzmetriken aus der Client-Server-Welt, mit denen sie in den vergangenen Jahrzehnten hohe Margen erzielt haben. Allerdings werden sie sich nicht ewig den neuen Modellen verschließen können. Der Druck von Anwenderseite wächst. Zu verlockend klingt es, nur noch die IT-Leistung zu bezahlen, die man wirklich verbraucht hat. (ba)

Zum Begriff Cloud Computing

Unter Cloud- oder Utility-Computing versteht man Techniken und Geschäftsmodelle, mit denen ein Provider seinen Kunden IT-Leistung in Form von Services zur Verfügung stellt und diese nach Verbrauch abrechnet. Dazu zählen Server-Kapazität, Speicherplatz und Applikationen. Zu den Techniken für dieses Konzept gehören Grid-Computing und Virtualisierung. Die Anwender betreiben ihre IT-Infrastruktur inklusive Hard- und Software nicht mehr selbst, sondern beziehen diese Ressourcen über einen Anbieter, der beides für ihn und andere Nutzer betreibt. Demzufolge geht das Konzept auch über Einzelansätze wie Software as a Service (SaaS) und Virtualisierung hinaus. Die Bezahlung richtet sich in der Regel nach Art und Dauer der Nutzung.