Die Zukunft der Rechenzentren

Zentral oder dezentral - das ist die Frage

12.12.1997

Mainframes haben ihre zentrale Rolle im Unternehmen eingebüßt und wurden weitgehend durch Abteilungs-Server ersetzt. Auch die PCs sind nun alle vernetzt, die notwendige Software ist angeschafft, das Management verteilter Systeme mühsam organisiert. Auf dem Altar des Fortschritts geopfert wurden auch die Rechenzentren. Nach und nach verloren sie ihre Bedeutung und erwarteten vielerorts schon den endgültigen Todesstoß. Haben sich die Verantwortlichen nun endlich mit dem Szenario der dezentralisierten DV abgefunden, wird ihnen demnächst das Loblied auf die alten, zentral organisierten Systeme in den Ohren klingen.

Das Marketing-Geschrei um Client-Server-Architekturen auf PC-Basis kann die mittlerweile sichtbar gewordenen Probleme dieses Lösungsansatzes nicht mehr übertönen. Und so gibt es auch schon erste Anzeichen für einen erneuten Meinungswechsel unter den Fachleuten. Der Marktforscher Robin Bloor beispielsweise fordert in seinem Report "The Enterprise in Transistion" eine Abkehr vom Client-Server-Computing. Um das unkontrollierte Wuchern der "Peer-to-peer-Verarbeitung" aufzuhalten, empfiehlt er einen zentralen Rechnerkomplex aus leistungsstarken Servern, der als großer und einziger Datenpool agiert. Von hier sollen alle Daten und Prozesse verteilt werden. Die DV-Abteilung solle als Servicezentrum im Unternehmen fungieren und jedem autorisierten Benutzer auf Wunsch die gesamten DV-Ressourcen zur Verfügung stellen. Mit dieser Struktur können dann auch gezielt bestimmten Anwendungsbereichen begrenzte Ressourcen zugeteilt werden. Die Verteilung läßt sich dank dieser zentralistischen Struktur sehr flexibel handhaben und beliebig neuen Anforderungen oder organisatorischen Umstrukturierungen anpassen. Dies ist mit bestehenden Client-Server-Systemen, wenn überhaupt, nur mit erheblichen Klimmzügen zu erreichen und treibt nachgewiesenermaßen die Total Cost of Ownership (TCO) in die Höhe. Das können viele Unternehmensleiter leider nur bestätigen. Wachsende Client-Server-Strukturen verursachen wegen der notwendigen Fat Clients erhebliche Kosten. Laut einer Gartner-Untersuchung liegen die TCO bei Thin Clients erheblich niedriger. Während ein NC-Environment aufgrund der einfacheren Verwaltung nur etwa 3300 Dollar pro Jahr koste, benötige man für ein vergleichbares Desktop-System etwa 13200 Dollar jährlich. Die Investition in intelligente und leistungsfähige PCs lohnt sich jedoch kaum: Die Analysten ermittelten, daß nahezu 80 Prozent der PC-Benutzer nur maximal zehn Prozent der Leistungsfähigkeit ihres Rechners nutzen.

Kritische Daten nach wie vor auf Großrechnern

Ein skalierbares, aus Hochleistungs-Servern bestehendes zentrales Rechenzentrum (der Begriff wird übrigens nicht mehr gern in den Mund genommen), an dem ausschließlich schlanke Clients installiert sind, kann erhebliche Kosten einsparen, sowohl bei der Anschaffung als auch im System-Management. Die alten Mainframe-Strukturen, in denen jeder Veränderungswunsch des Anwenders gemäß dem Wahlspruch "Never touch a running system" gleich im Keim erstickt wurde, will allerdings niemand wiederaufleben lassen. Man hat die starren Großrechnerstrukturen in der Vergangenheit ja nicht umsonst von einer beliebig erweiterbaren und vor allem vom ehemaligen Monopolisten IBM unabhängigen Architektur ablösen lassen.

Daß viele Chefs den verteilten Systemen nicht trauen, zeigt die Tatsache, daß in Großunternehmen die sicherheitsrelevanten Daten häufig auf modernen Mainframes mit entsprechendem Sicherheitskomfort belassen wurden.

Rechenzentren unterliegen generell wesentlich strengeren Sicherheitsmaßstäben und sind als Hochsicherheitstrakt nur wenigen Mitarbeitern zugänglich. Anders bei verteilten Systemen. Hier sorgt lediglich die elektronische Paßwortverriegelung für Schutz - im Rechenzentrum nur einer von vielen Schutzmechanismen. Wie die Gartner Group herausfand, haben deshalb 82 Prozent der amerikanischen Firmen ihre kritischen Daten (56 Prozent der Gesamtdaten!) in Rechenzentren gespeichert. Dies macht auch den Verfechtern zentraler Ansätze Mut. So gibt sich Alfred Tauchnitz, Vorstandschef und Mitbegründer von Beta Systems, optimistisch, was die Zukunft zentraler Rechner angeht. Doch auch er spekuliert scheinbar auf neue Strukturen mit Server-Verbünden: "Der Mainframe allein wird nicht mehr ausreichen."

Für viele IT-Leiter wird es kaum ein großer Schritt sein, dem Rechenzentrum als Security-Abteilung eine Zukunft zu geben. Machbar scheint dies zunächst nur in Unternehmen, die es sich leisten können, ihre Client-Server-Strukturen über den Haufen zu werfen. Für die meisten mittelständischen Firmen brächte der neue Leitpfad eine stärkere Auskopplung wichtiger DV-Strukturen ins externe Rechenzentrum mit sich. Outsourcing ist derzeit sowieso wieder im Kommen, zumindest was bestimmte Abteilungen angeht.

Eine Untersuchung der Webasto Informationssysteme GmbH zeigte beispielsweise, daß 80 Prozent der befragten Unternehmer mit einer Auslagerung von Teilen ihrer Personalabteilung liebäugeln. Nach einer Studie von Cogos sparen Unternehmen, die für ihre Lohn- und Gehaltsabrechnung externe Rechenzentren beauftragen, etwa 43 Prozent an Kosten. Gute Aussichten für RZ-Dienstleister.

Land gewinnen könnten die externen Rechenzentren auch durch die sich anscheinend anbahnende generelle DV-Zentralisierung. Zumindest die Firmen, die sich kein eigenes RZ leisten können, werden dann kaum an den Anbietern externer RZ-Leistungen vorbeikommen. Die aktuellen Preise liegen jedoch nach einer Marktanalyse der Wiesbadener Compass Deutschland GmbH noch deutlich zu hoch. Nach Aussagen von Klaus Stöcker, Bereichsleiter Marketing und Vertrieb, arbeiten Unternehmen mit eigenem Rechenzentrum deshalb meist wirtschaftlicher als Outsourcer. Ein Grund mehr, Bloors zentralen Ansatz zukünftiger Unternehmens-DV ernst zu nehmen. Doch wie sollen die in Richtung dezentralisierte DV vorgenommenen Schritte rückgängig gemacht werden?

Eine kostengünstige Möglichkeit, bestehende Strukturen in ein internes Rechenzentrum zu integrieren, ist die Verwertung vorhandener PC-Hardware: Jeder Fat Client eignet sich auch als NC. Alle PC-Funktionen stehen dann nach wie vor zur Verfügung. Dabei können selbst ältere Desktops zum Einsatz kommen. Reichen die vorhandenen Hardwarepotentiale nicht, könnten zusätzlich kostengünstige Thin Clients integriert werden.

Geht es also nach dem Willen der Gegner verteilter Systeme, wird das Rechenzentrum in einer anderen Form wiedergeboren. Der aus mehreren im Verbund arbeitenden Servern bestehende virtuelle Großrechner wird die einzige Datenquelle im Unternehmen sein. Im Rechenzentrum werden das komplette Netz-Management und auch der Security-Bereich zentralisiert.

Daraus ergeben sich aber die bekannten Sicherheitsproblematiken zentral ausgerichteter DV-Strukturen. Durch die lokale Massierung des gesamten Datenbestands und Sicherheitsbereichs an einem Ort besteht eine erhöhtes Risiko für Spionage und Anschläge. Die Gesellschaft für Datenschutz und Datensicherung e.V. in Bonn schätzt die Zahl der gegen Rechenzentren gerichteten Brand- und Sprengstoffanschläge auf jährlich 15 bis 25 allein in Deutschland. Neben diesen Attacken von außen komme es zunehmend zu Sabotage innerhalb der Objekte.

Das Risiko eines technologisch bedingten Ausfalls der gesamten DV wird bei mehreren zusammengeschalteten Hochleistungsrechnern nie die Dimensionen eines Mainframe-basierten Rechenzentrums annehmen. Da der virtuelle Großrechner aus mehreren Servern bestehen wird, können immer nur Teilkapazitäten brachliegen. Ist die RZ-Struktur richtig dimensioniert, ergeben sich im Ernstfall nur Teilausfälle, die die Leistung des Systems senken.

Ob die Unternehmen jedoch bereit sein werden, die für die erneute Umstellung notwendigen Gelder bereitzustellen, ist fraglich. Immerhin wird dann nicht nur neue Hardware fällig, auch die Software muß umgestellt werden. In diesem Kontext fällt dann meist das Stichwort Java. Denn nur dank dieser Programmiersprache ist eine Bloorsche DV-Architektur möglich. Die Schlüsselrolle in den neuen Rechenzentren und deren Clients sollen Java Virtual Machines (JVM) spielen. Das JVM-Konzept ermöglicht das Installieren und Ausführen von Java-Programmen auf den unterschiedlichsten Plattformen. JVMs können mit jeder CPU zusammenarbeiten. Die Verwaltung der Anwendungsumgebung liegt ausschließlich beim zentralen virtuellen Großrechner.

Michael Funk ist freier Journalist in Partenheim bei Mainz.