Der Host als Stabilitätsfaktor?

Anwender unsicher über Konsolidierungs-Strategien

09.12.1998
MÜNCHEN (kk) - Ganz ohne Zentrale kommt wohl kein Unternehmen aus. Zwar leiteten die Anwender in den 80ern und Anfang der 90er Jahre weitreichende Dezentralisierungsmaßnahmen ein - Stichwort Client-Server -, doch nun scheint das Pendel zurückzuschwingen und eine stärkere Zentralisierung Platz zu greifen.

Den vielgepriesenen Vorteilen der Dezentralisierung - schnellere Handlungsmöglichkeiten der Geschäftseinheiten und lokal angepaßte Produkte - stehen große Nachteile, etwa der Verlust der Economies of Scale, gegenüber. Für die Informationsabteilungen der Unternehmen bedeutet die Dezentralisierung vor allem "eine Vielzahl von redundanten Systemen, hohe Kosten wegen der extrem komplexen Infrastruktur sowie die Unmöglichkeit, den ohnehin spärlich vorhandenen Fachverstand innerhalb des Unternehmens mehrfach einzusetzen", beurteilt Marc Cecere, Analyst der Giga Information Group, die Situation, mit der sich viele Anwender konfrontiert sehen.

Kein Wunder also, daß Unternehmen vermehrt nach Lösungen für die Vereinheitlichung der hausinternen Plattformen suchen. Die Giga Information Group veröffentlichte einen Vergleich der Server-Strategien von Anwendern in den Jahren 1994 und 1997. Planten 1994 mehr als die Hälfte der Befragten keine Veränderung ihrer zentralen Rechnerlandschaft, so waren es 1997 nur mehr 20 Prozent. Damals wünschten sich 31 Prozent eine dezentrale Rechnerlandschaft, im vorigen Jahr nur noch 19 Prozent. Die Rechnerkonsolidierung war vor vier Jahren nur für 18 Prozent der Befragten ein Thema, während im vergangenen Jahr über 60 Prozent an solchen Projekten arbeiteten.

Die Hersteller, allen voran die IBM, greifen die Idee begeistert auf, winken doch neuerliche (Hardware-) Einnahmen. So wird beispielsweise Big Blues Großrechnerabteilung nicht müde, die Renaissance des Mainframes zu verkünden. Sie propagiert die S/390-Maschinen - dank der zunehmenden Offenheit für andere Architekturen - als ideale und kostengünstige Plattform zur Konsolidierung der Server-Landschaft. Gestützt werden solche Aussagen durch Studien zu den Total Costs of Ownership (TCO), die dem Mainframe erhebliche Kostenvorteile zubilligen. Kürzlich legte die kalifornische International Technology Group (ITG) eine Untersuchung über den "Nutzen der Konsolidierung" vor, in der US-amerikanische Umsteiger von Unix-, LAN- und NT-Servern auf S/390-Großrechner über ihre Erfahrungen berichteten.

Die von ITG befragten 52 Unternehmen hatten alle bereits einen Mainframe im Haus, der nun für neue Aufgaben eingesetzt werden sollte. Als Gründe für die Migration nannten die Anwender die Reduzierung beziehungsweise Kontrolle der IT-Ausgaben (79 Prozent), verbesserte Verwaltbarkeit und Verfügbarkeit (70 Prozent), einfacher Datenzugriff und -sicherheit (55 Prozent) und bessere Ausnutzung vorhandener S/390-Investitionen (53 Prozent).

Die in der Studie ermittelten Kostenvorteile einer S/390 im Vergleich zu Unix-Systemen beliefen sich im Durchschnitt auf 35 Prozent. Bei der Konsolidierung von LAN-Servern, die immer unter Netware arbeiteten, auf den Mainframe, ergaben sich bei den Befragten Einsparungen, die zwischen knapp 400 Dollar und über 2000 Dollar je User lagen. Am meisten gespart wurde dabei bei den Personalkosten für die Administration der Systeme.

Für die Migration von NT-Servern auf S/390-Rechner fanden die ITG-Marktforscher noch kaum Anwender, sie erwarten jedoch Ähnliches wie bei Unix- oder LAN-Servern, denn: "In puncto Gesamtkosten, Leistung, Verwaltbarkeit, Verfügbarkeit, Daten-Management und -Skalierung sind die Eigenschaften von NT-Servern offensichtlich nicht besser als die von Unix-Maschinen."

Richard Fuchs, Big Blues Vice-President der im Frühjahr neu geschaffenen Geschäftseinheit "Server Consolidation", berichtet, daß nach seiner Erfahrung nicht der Mainframe als hauptsächlicher Migrations-Server genutzt werde: "Die RS/6000 ist die wichtigste Konsolidierungs-Plattform. Dann erst folgen die S/390-Systeme und die Intel-basierten Netfinity-Server." Hinzu kommt bei IBM noch die Mittelklassemaschine AS/400, der kürzlich Mainframe-Techniken wie logische Partitionierung oder Cluster-Fähigkeiten implantiert wurden.

Auch Fuchs bestätigt den Kostenaspekt beim Konsolidieren. Generell würden seine Kunden nicht (schon wieder) ihre Geschäftsprozesse überarbeiten, sondern insbesondere bei den Personalkosten sparen wollen. Zudem gehe es darum, neue Applikationen zu implementieren, um die unternehmensweiten Servicestrukturen, Stichwort "Monitoring", besser zu verstehen. Wichtig sei weiter, einen möglichst globalen Datenzugriff zu ermöglichen.

Wie der IBM-Manager gegenüber dem Branchendienst "Computergram" mitteilte, entfallen bei Konsolidierungsprojekten nur rund 30 Prozent der Kosten auf die neue Rechnerhardware. Den Löwenanteil (50 Prozent) verschlingen Software und Services, die restlichen 20 Prozent gehen nach seiner Erfahrung in die Anschaffung neuer Speichersysteme.

Anwendern fehlt das Know-how und die Strategie

Hauptsächlich Anwender von gemischten Unix-Umgebungen suchen nach anderen Möglichkeiten.Greg Papadopoulos, Chefingenieur bei Sun Microsystems, dem Produzenten des Unix-Betriebssystems "Solaris", gesteht mittlerweile ein, daß "Unix Management-Probleme" hat, zumindest in gemischten Unix-Umgebungen. Auch IBM-Manager Fuchs berichtet von Kunden, die eine ganze Sammlung unterschiedlicher Unix-Rechner betreiben, meist zwischen fünf und sieben Jahre alt, die als Anwendungsrechner eingesetzt und nun abgelöst werden sollen.

Doch dem Anwender fehlt oft das Know-how, welche Strategie er einschlagen, welche Architektur er wählen oder wo er mit der Konsolidierung beginnen soll. Derzeit gibt es nach Aussagen von Fuchs keine Testmöglichkeit und keine Meßlatte, um beispielsweise eine genaue Kapazitätsplanung für ein konsolidiertes System vorzunehmen. Ebensowenig könnten Effektivität und Kosten vor der Implementierung berechnet werden.

Genausowenig bestehe ein einheitliches Konzept für die Konsolidierung, da sie unterschiedlich stark und zudem auf vielen Wegen zu erreichen sei. Dennoch machte der IBM-Manager vier Arten aus, in die sich die Konsolidierungsprojekte einteilen lassen: Bei der Zentralisierung werden die vorhanden Server an einem Platz versammelt. Die physikalische Konsolidierung reduziert nur die Anzahl der Maschinen, ohne die zugrunde liegende Architektur zu verändern. Die Datenkonsolidierung verlagert die Daten der Einzelmaschinen in zentrale Repositories. Die Applikations-Konsolidierung schließlich verändert die Art und Weise, wie Anwendungen und Server miteinander verbunden sind.