Downsizing vom Host auf Server-Systeme verlangt gute Planung (Teil 2)

Die große Freiheit offener Systeme hat auch ihren Preis

24.05.1991

MÜNCHEN (jm) - Ob man nun von Client-Server-Architekturen spricht, von Corporate Computing, serverbasierte Systeme im Auge hat oder von verteilter - Datenhaltung und -verarbeitung mit Pcs in LANs unter Unix spricht immer verbindet sich bei den rezessionsgeplagten Unternehmenschefs mit diesen neuen Rechnertopologien die Hoffnung auf Einsparungen. Im zweiten Teil des Artikels über Downsizing vom Host auf Server-Systeme sollen einige Beispiele von Anwendern zeigen, daß dieses Hoffnungen zwar berechtigt, die zu meisternden Probleme aber keinesfalls zu unterschätzen sind.

Prinzipiell stimmen Fachleute der Meinung von Ira Morrow, Vice-President für Technologieplanung bei der Shearson Lehman Brothers Inc., zu, daß die Vorteile von Client-Server-Umgebungen die zu deren Verwirklichung nötigen Gesamtkosten bei weitem übertreffen: "Aber wir haben die Komplexität, die durch solch eine Umgebung entsteht, schlicht unterschätzt", meint die Managerin, deren Firma seit 1987 Client-Server-Applikationen entwickelt. "Man muß Probleme lösen, zu deren Bewältigung die Mainframe-Leute 20 Jahre gebraucht haben."

Fehlende Netzwerk-Management-Tools sind da nur ein Teil der Geschichte. Software, die automatisch Updates von Applikationen auf Dutzende von Servern spielt, gibt es ebensowenig, wie für überregional arbeitende Unternehmen und deren WANs Hochgeschwindigkeits-Router an den Knoten der überregionalen Netze existieren.

Schon die Wahl der richtigen Server-Hardware ist, wie die Erfahrungen beim amerikanischen Supermarkt-Unternehmen J.C.Penney zeigen, von großer Bedeutung. In diesem Punkt wird MIS-Chef David Evans von Gregory Collins, President der LAN-Beratungsfirma Shared Micro Systems Inc. unterstützt: "Allererste Regel beim Einrichten einer Server-Topologie ist, in Frage kommende Server nicht nur unter Benchmark-Bedingungen, sondern vor allem mit den eigenen Alltagsanwendungen zu testen."

Reaktionen auf die 100prozentige Auslastung

Bei solchen "lebensechten" Prüfungen stelle sich nämlich schnell heraus, wie die meistens als Mehrprozessor-Systeme ausgelegten Rechner bei einer fast 100prozentigen Auslastung reagieren. Collins, aus Erfahrung klug geworden: "Wir haben schon so manches hochleistungsfähige Server-Modell gesehen, daß unter normalen Bedingungen einwandfrei arbeitete." Reize man die Multi-CPU-Systeme aber aus, gehe ihnen schnell die Luft aus.

Acht Produkte befinden sich momentan bei Penney im Test - neben dem momentan favorisierten NCR-Server könnte Evans sich auch das "DEC-Application"-Server-Modell für die relationalen Datenbankanwendungen vorstellen -, die Erwartungen an die neue Hardware-Umgebung sind hoch: "Für die Serverlösung zahlen wir pro MIPS etwa 10 000 Dollar, wohingegen wir bei herkömmlichen Mainframes das Zehnfache hätten einsetzen müssen", bestätigt MIS-Chef Evans die Forrester-Research-Studie. Allein für Peripheriespeicher kalkuliert man bei Penney nur knapp ein Drittel der Kosten, die in Großrechner-Umgebungen für vergleichbare Konstellationen anfallen.

Trotz aller guten Erfahrungen warnt Supermarketier Evans Interessenten von Client-Server-Architekturen: "Hardware, Betriebssystem, die gesamte Netzwerkunterstützung und die Applikationen zu einem funktionierenden Ganzen zusammenzufügen ist eine Riesenarbeit", und ohne intime Kenntnisse beim Aufbau von LANs sei man ohnehin aufgeschmissen.

Auch Jim Romano sieht den Wechsel von Host- auf Serverbasierte DV-Topologien eher nüchtern. Als LAN-Administrator und IS-Manager der US-Video-Kette Erol's will er den Überblick über die landesweit verliehenen Videocassetten nicht mehr einem 3090-Mainframe anvertrauen, sondern einem PC-basierten System übertragen.

Hatte Big Blues Großrechner für tagtägliche Updates der Datenbank etwa dreieinhalb Stunden gebraucht, so benötigte die Testinstallation eines 33-MHz-386-Systems hierfür unter dem Betriebssystem DOS unakzeptable 17,5 Stunden, unter OS/2 immer noch 14 Stunden.

Als Romano die Datenbank-Applikation allerdings für den Gebrauch unter SCOs Unix umgeschrieben hatte, konnte er mit einem Zweiprozessor-Systempro von Compaq die Rechenzeit auf knapp 3,75 Stunden herunterbrechen.

Der Video-Manager ist trotz dieser überzeugenden Zahlen vorsichtig, uneingeschränkte Empfehlungen für das Downsizing auszusprechen. Letztlich habe ihn einzig seine jahrelange Erfahrung als MIS-Leiter sowie als technischer Support-Direktor bei einem bedeutenden Novell-Distributor die Sisyphusarbeit - "Für Ungeübte ist das nichts!" - durchstehen lassen: 210 Geschäftsstellen mit Unix-Applikationen mußten unter Novells Netware-Betriebssystem zusammengeschaltet und zudem noch ein AS/400-Rechner in diese Topologie eingebaut werden.

Sein ganzes Know-how hätte Romano ohne seine sehr guten Kontakte zu den Herstellern von Server-Maschinen übrigens trotzdem nicht viel genutzt: "Ohne deren Hilfe wäre der Wechsel vom Mainframe zum PC-LAN sehr, sehr schwer geworden."

Diese Ansicht unterstützt Kollege Bill Gilman. Er ist beim Staat in Washington angestellt und soll für das Department of Social and Health Services eine verteilte, heterogene PC-Rechnerwelt installieren, Unisys-Mainframe- und Minicomputer werden dafür in den Ruhestand geschickt. "Mit Netframe als Server-Lieferant und Businessland als Systemintegrator haben wir Gott sei dank einen Kickstart in die neue Umgebung gemacht."

Den Lohn der Angst auf dem Weg zu Client-Server-Landschaften konnten auch die Chefs der New Yorker Versicherung Financial Guaranty Insurance Co. (FGIC) einstreichen. Ihre zeitkritischen Applikationen liefen auf einer bis an die Grenzen ausgereizten 4381-Anlage. Statt sich einen größeren Mainframe zuzulegen, entschied man sich beim Versicherer zum großen Schnitt: Mit vier Systempros und 386-PCs in einem LAN spart der Versicherer nach Worten von Andrei Chivvis, Vice-President der IS-Abteilung bei der FGIC, mittlerweile

jährlich etwa vier Millionen Dollar an Wartungs- und Supportkosten.

Heute läuft nichts ohne PCs: "Ursprünglich wollten wir nur Kosten sparen", stapelt Chivvis etwas tief. Mit der Umschreibung der Applikationen auf die neue Hardwaretopologie erzielten die Versicherer aber auch eine höhere Funktionalität und Effizienz für die jetzigen Applikationen, was den weiteren Vorteil hatte, "daß sich die Produktivität sowohl unserer Systementwickler, aber auch die unserer Angestellten - die mit dem System letztendlich arbeiten - dramatisch verbessert hat."

Der MIS-Chef hat aber auch Pillen zu verteilen, die den einen süß, anderen eher bitter schmecken: "Für die Unterstützung des Mainframe-Systems mußten wir 72 halb- und ganztägig arbeitende Angestellte bezahlen. Da unsere Benutzer jetzt aber viel mehr in das Wohl und Wehe des Systems integriert sind, brauche ich nur noch 25 Spezialisten, die hauptberuflich für die LAN-Wartung und dessen Hard- und Softwaresupport zuständig sind."

Zu den unzweifelhaften Vorteilen der PC-LANs gegenüber Mainframe-Systemen zählt Chivvis, daß er aus einem weitgefächerten Angebotsspektrum unterschiedlicher Hersteller auswählen kann. Weil es aber in puncto Speichersub- und Peripheriesystemen dem in dieser Hinsicht aus der Mainframe-Welt verwöhnten Manager bei den PC-Systemen noch an ausgereiften Produkten mangelt, weiß er es zu schätzen, in Zukunft nicht mehr an einen Hersteller und dessen proprietäre Produkte gebunden zu sein.

Kritisch hingegen beurteilt Ken Zoline, President der Chikagoer Netzwerk-Beratungsfirma Zoline & Associates, die Potentiale von Superservern: "Ist das Design eines gesamten Client-Server-Systems nicht optimal, dann müssen Kunden immer mit einer Menge verlorener Zeit oder Produktivität, wenn nicht gar mit beidem rechnen."

Seine Schreckensvision sind zentral plazierte Server, die in LANs über Gateways und Bridges auch Systemenklaven und -inseln bedienen. "Wenn hier was schiefgeht, ist sofort die gesamte Workgroup von ihren Daten abgeschnitten und lahmgelegt" ,orakelt Zoline.

Leistungsfähigkeit wird nicht ausgereizt

Nach seiner Meinung unterschätzen Downsizing-wütige Interessenten meistens die Schwierigkeiten, ein gut funktionierendes Netzwerk für solche verteilten Datensysteme zu entwickeln. Außerdem seien für die neuen Hardware-Umgebungen umgeschriebene Applikationen noch alles andere als optimal: "Die meisten reizen die

Leistungsfähigkeiten dieser neuen leistungsstarken PC-Server nicht im entferntesten aus."

Der Weg in ein neues Zeitalter der Unternehmens-DV kann allerdings auch zum Umweg geraten: Zoline weist anhand einer Infonetics-Studie, die 100 Unternehmen mit großen LAN-Installationen unter die Lupe nahm, nach, daß sich Geschäftsleitungen durch Sparmaßnahmen am falschen Platz selbst Prügel zwischen die Beine werfen können. "In der Untersuchung wurde festgestellt, daß diese Firmen im Schnitt pro Stunde 30 000 Dollar Verlust machen, wenn das System zusammenbricht."

Allerdings beschäftigen die untersuchten Unternehmen im Schnitt nur 3,65 Personen mit einem durchschnittlichen Jahresgehalt von 35 000 Dollar dafür, das gesamte Rechnernetz in Ordnung zu halten und im Ernstfall schnell für Problemlösungen zu sorgen.