Kolumne

"Fragezeichen hinter On-Demand"

21.02.2003
Christoph Witte Chefredakteur CW

Etliche Anbieter haben neben Verfügbarkeit und Sicherheit seit kurzem die flexible Ausbaufähigkeit als wesentliche Eigenschaft von IT-Infrastrukturen entdeckt. Weil sich immer schwerer vorhersagen lässt, wann die IT mit welchen Anforderungen wie stark belastet ist, müssen die IT-Planer, so das Argument der Herstellerschaft, immer von der theoretisch höchsten Belastung ausgehen, wenn sie einen Zusammenbruch ihrer Systeme vermeiden wollen. Nicht umsonst würden beispielsweise Börsen ihre Spitzenkapazität um ein Vielfaches höher ansetzen, als die Belastung durch Transaktionen an normalen Handelstagen nahe legt.

So großzügig geplante Kapazitäten sind natürlich teuer. Viel einfacher und billiger wäre es, wenn der Anwender zusätzliche IT-Ressourcen nur dann zahlt, wenn er sie wirklich in Anspruch nimmt. Unter Bezeichnungen wie "Computing on Demand", "E-Business on Demand" (IBM) oder "Utility Data Center" (HP) stellen die Hersteller ebensolche Angebote in Aussicht.

Das Versprechen einer bedarfsgerechten IT-Versorgung ist jedoch zu relativieren. Anwender, die schon durch Konsolidierung ihrer Plattformen vorgearbeitet haben, können durch die On-Demand-Angebote Spitzenlasten abfedern - nicht mehr und nicht weniger. Die Kapazität für die normale Grundlast müssen sie entweder selbst oder durch klassische Outsourcing-Verträge abdecken.

Außerdem bedeutet das Herstellerversprechen der Flexibilität nur dann den schnellen Auf- und Abbau von IT-Ressourcen, wenn vorher entsprechende Verträge abgeschlossen wurden. Darin ist festgeschrieben, was die jeweilige Rechen- oder Speicherleistung über einen bestimmten Zeitraum hinweg kostet.

Man kann getrost darauf wetten, dass die flexibel nachgefragten Ressourcen ungleich teurer sind als die Grundlast. Insofern lohnen sich solche Modelle nur für Unternehmen, deren Bedarf an Rechenleistung stark schwankt. Einfach zum eigenen IT-Park - quasi auf Anruf - Leistung hinzuzufügen wird auch in Zukunft nicht möglich sein. Das funktioniert schon deshalb nicht, weil auch die Anbieter solcher Services planen müssen.

Zwar hat zum Beispiel IBM Global Services durch die vielen übernommenen Rechenzentren IT-Kapazitäten erworben, die ohne On-Demand-Angebote wahrscheinlich kaum ausgelastet werden können, aber die stehen eben trotz Grid Computing und Virtualisierung von CPU- und Speicherpower nicht ad hoc zur Verfügung. Durch die Vielzahl der Kunden dürfte die weltweite Planung der Workloads schon jetzt nicht unkompliziert sein und eine gewisse Zeit benötigen.