Prof. Walter Brenner über Standards im Rechenzentrum

"Bei der Modernisierung hilft die Gnade der späten Geburt"

24.08.2009 von Klaus Manhart
Homogenen Rechenzentren mit preiswerten Standard-Komponenten gehört die Zukunft, meint Walter Brenner, Professor am Institut für Wirtschaftsinformatik der Universität St. Gallen. Aber die Ablösung der Altsysteme geht nur langsam vonstatten.
Die Gnade der späten Geburt hat, wer die Chance bekommt, sein Rechenzentrum komplett neu aufzubauen, meint Prof. Walter Brenner, Wirtschaftsinformatikeran der Uni St. Gallen.

Der Wirtschaftsinformatiker Walter Brenner spricht von der "Gnade der späten Geburt", wenn sich Unternehmen die Möglichkeit bietet, Rechenzentren nach Google-Muster völlig neu aufzubauen. Diese Gnade scheint nur wenigen vergönnt zu sein, denn die Ablösung von Altsystemen schreitet offenbar nur sehr gemächlich voran. Wir haben mit Walter Brenner über die neuen Chancen im Rechenzentrum gesprochen.

Computerwoche: Viele Unternehmen modernisieren ihre Rechenzentren oder sind dazu gezwungen, ihre Infrastruktur auf den neusten Stand zu bringen. Worin sehen Sie den Anlass für diese Entwicklung?

Walter Brenner: Bei den Kosten. Der Kostendruck auf die Betreiber von IT-Infrastrukturen nimmt derzeit immens zu. Eine der Maßnahmen, die mittelfristig verspricht, diese Ausgaben massiv zu senken, ist der Umbau der Infrastrukturen. Initiiert von Unternehmen wie Amazon und vor allem Google werden dabei vermehrt preiswerte Standard- oder Commodity-Komponenten verwendet. Diese Komponenten sind leicht austauschbar und können parallel betrieben werden.

Die heterogene IT-Infrastruktur in Unternehmen - etwa mit HP-Unix-Servern, großen IBM-Rechnern und Hitachi-Speichersystemen - kann durch diese sehr homogenen Strukturen ersetzt werden. Diese Hunderte oder Tausende von gleichen Geräten lassen sich auf sehr geringer Stückkostenbasis betreiben. Das motiviert die Leiter von Rechenzentren und die CIOs sich zu überlegen, wie man bestehende Infrastrukturen umbauen und dann die Software darauf migrieren kann.

Computerwoche: Die Rede ist von Standard-Infrastrukturen und proprietären Systemen. Was bedeutet das genau in diesem Zusammenhang?

Brenner: Ich vermeide bewusst die Begriffe "Standard" und "proprietär". Stattdessen würde ich eher von "heterogenen Rechenzentren" sprechen.

In der Vergangenheit haben wir beobachtet, dass Rechenzentren meist organisch gewachsen sind. Wir finden häufig sehr alte Systeme mit neueren gemischt - etwa Rechner, die auf der alten 370er-Architektur von IBM betrieben werden, Linux-Server und viele andere Systeme, die im Laufe der Jahre dazugekommen sind. Dabei benötigte man für jede Gattung von Rechnern Spezialisten, die diese Infrastruktur betreiben und pflegen, sowie entsprechende Serviceverträge.

"Das Ziel im Rechenzentrum lautet Standardisierung"

Rechenzentrum 2.0: Die Zukunft bringt standardisierte Hard- und Software. Das senkt die Preise und bietet bessere Optionen für Skalierung und Fehlertoleranz.
Foto: T-Systems

Das Ziel der Standardisierung ist, möglichst viele Rechner einer Baureihe und eines Herstellers zu haben, die dann kostengünstig und mit weniger Spezialisten betrieben werden können. Und die bezüglich Skalierbarkeit und Fehlertoleranz ganz andere Möglichkeiten bieten.

Solche Standard-Komponenten wurden von Internet-Anbietern wie Google, Amazon, 1&1 oder AOL bereits entwickelt. Wenn Sie durch deren Serverräume gehen, sehen Sie viele kleine Rechner und einer sieht aus wie der andere. Ist in einem Rechenzentrum, das nach dem Vorbild dieser Unternehmen aufgebaut ist, eine Komponente defekt, tauscht ein Service-Mitarbeiter das Teil einfach aus und das System läuft sofort wieder.

Computerwoche: Also sind Google und Co die Trendsetter für das moderne Rechenzentrum?

Brenner: Ja. Die Trendsetter sind heute nicht mehr wie früher Banken und Versicherungen, sondern Internet-Firmen, aber auch Hard- und Software-Unternehmen wie Intel oder Microsoft, die ebenfalls gerüchteweise sehr große, homogene Rechenzentren planen.

Der Trend zum homogenen Rechenzentrum mit Standard-Komponenten ist im Übrigen gar nicht so neu. Den gab es schon vor zehn Jahren, er wird heute nur breitflächiger diskutiert. Amazon, Google und Co haben ihre Infrastrukturen schon Ende der 90er Jahre auf hohem Level aufgebaut.

Ich spreche in diesem Zusammenhang immer, wie Ex-Bundeskanzler Helmut Kohl, von der "Gnade der späten Geburt": Diese Internet-Firmen haben auf der Basis neuer Architekturen völlig andere Rechenzentren gebaut - und anscheinend kann man diese Zentren sehr billig betreiben. Deshalb ist es für viele Hardware- und Infrastruktur-Spezialisten heute ein Ziel, das man anstrebt. Das scheint zu funktionieren.

"Billige Infrastrukturen werden eine große Rolle spielen"

Forschungsmitarbeiter etwa bei SAP, Salesforce.com oder IBM, die sich mit Cloud Computing beschäftigen, gehen davon aus, dass es in absehbarer Zeit auf der Basis dieser billigen Rechenzentren mit den homogenen Infrastrukturen beliebig viele und beliebig skalierbare Zentren geben wird. Das wird dazu führen, dass sich bestehende Konzepte, Hardware und Software zu betreiben, komplett ändern. Und da spielt diese billige Infrastruktur eine große Rolle.

Computerwoche: Wie viele Unternehmens-Rechenzentren sind nach Ihrer Schätzung schon auf einem aktuellen Stand und wie viele arbeiten noch mit veralteten Strukturen?

Brenner: Ich würde das Wort "veraltet" nur sehr vorsichtig verwenden. Sehr wenige Unternehmen bauen nämlich tatsächlich moderne Infrastrukturen auf. Die meisten betreiben ihre Infrastrukturen so, wie in der Vergangenheit - mit Legacy-Systemen, die zum Teil stark an die Hardware-Architektur gebunden sind.

Ich glaube, dass nur wenige Unternehmen migrieren und ich glaube, dass es nur wenige Projekte gibt, die heute diese Migration tatsächlich planen oder schon in Angriff genommen haben. Auch hier gilt die Gnade der späten Geburt: Diejenigen, die heute die Möglichkeit haben, irgendetwas neues aufzubauen, werden sicher in Richtung Standardisierung gehen. Die Unternehmen mit bestehender Infrastruktur werden sich der Herausforderung langsam aber konsequent stellen müssen.

Computerwoche: Ist es sinnvoll, alte Mainframe-Anwendungen auf moderne Systeme zu migrieren?

Brenner: Die zeitliche Dimension beim Bau von Rechenzentren ist sehr groß. Mainframe-Anwendungen laufen stabil, sie sind ein elementarer Teil der Wirtschaft. Große Teile der Ökonomie hängen davon ab. Ein CIO in diesen wirtschaftlich schwierigen Zeiten muss den Betrieb sicher stellen, sonst hat er ein Riesenproblem. Und im Vergleich zu dem, was beim Umstieg an Fehlern passieren kann, ist eine Mainframe-Applikation sehr stabil.

Die Frage, ob man Anwendungen migriert, ist nicht nur eine reine Hardware-Frage, sondern auch eine Frage der Software-Anwendungen: Wenn man an die Applikationen herangeht, ist es wenig sinnvoll, auch die darunter liegende Hardware zu ersetzen. Es wird aber sicher Unternehmen geben, die sich das überlegen.

In der Vergangenheit gab es immer wieder leuchtende Ziele - Stichwort "Jahr-2000-Umstellung" -, Situationen, in denen man dachte, jetzt ersetzt man die ganzen alten Legacy-Systeme. Am Ende ist dann aber ganz wenig passiert. So gibt es auch heute kaum Grund anzunehmen, dass die modernen Rechenzentrums-Strukturen die Ablösung der Legacy-Systeme massiv beschleunigen werden.

"Die Ablösung der Altsystem ist ein langsamer Prozess"

Computerwoche: Also schreitet die Ablösung der Legacy-Systeme nur sehr langsam voran?

Brenner: Ja, ich sehe in der Ablösung einen langsamen Prozess. Es passiert mehr als vor zehn Jahren, aber alles passiert dennoch sehr gemächlich. Viele Unternehmen wissen, dass sie veraltete Legacy-Systeme haben, aber der Treiber für Veränderung ist sicher nicht allein die IT-Infrastruktur. Sondern es sind andere Elemente, die dazu kommen müssen, damit man sich mit einer Migration der Legacy-Systeme beschäftigt.

Sinnvoll wäre eine Entwicklung neuer Systeme allemal. Es gibt eine Menge Spezialisten, die genau wissen, wie man eine Migration technisch umsetzen sollte. Und wo immer es geht, wird man beim Aufbau eines Rechenzentrums auch neue, ökologisch ausgerichtete Architekturen umsetzen.

Aber der Punkt bei bestehenden Systemen ist: Wer unterschreibt und trägt die Verantwortung dafür, dass man Legacy-Systeme migriert? Irgendjemand muss den Kopf dafür hinhalten. Wenn Sie das nicht wollen, nützt es wenig, die darunter liegende Hardware-Architektur zu verändern. Das sind alles sehr langfristige Entscheidungen. Trotz der Dynamik in der IT-Entwicklung herrscht auch sehr viel Konservatismus und Trägheit vor.

Eine Geschichte zum Schluss: Ich habe vor ein paar Wochen ein Rechenzentrum besucht, das vor 20 Jahren gebaut wurde. Grundsätzliches hat sich dort nicht geändert. Der heutige Leiter sagte mir, dass der Platz für weitere 20 Jahre reichen würde. Damals wurde eine Wasserkühlung eingebaut. Sie wurde nicht benötigt und lahmgelegt. Jetzt braucht man sie und ist dankbar, dass man sie integriert hat - und reaktiviert sie nun wieder.

Computerwoche: Vielen Dank für das Gespräch.