Unix-Server ermoeglichen besseres Kostenmanagement

08.10.1993

MUENCHEN (jm) - Am 5. September 1990 wurden bei der IBM die Uhren umgestellt: Der Mainframe als Rueckgrat der Unternehmens-DV hatte zwar nicht ausgedient - seine unangreifbare Position allerdings war in Frage gestellt. Was war geschehen? Big Blue definierte die Rolle des Grossrechners neu, bescheidener: Nicht mehr Koenig von Gottes Gnaden, sondern aufgeklaertem preussischen Herrscherdenken verpflichtet, Primus inter Pares sollten die Nachfolger der legendaeren /360-Systeme sein. Nur mehr in dienender Funktion, als Server, seien sie gedacht. Noch bemerkenswerter war: Die IBM nahm erstmals Konkurrenten ueberhaupt offiziell zur Kenntnis.

Natuerlich tat sie das nicht ganz freiwillig. Die Versaeumnisse des blauen Riesen sind mittlerweile Geschichte und Stoff fuer diverse Buecher (Die aktuellste Neuerscheinung ist seit knapp sechs Wochen auf dem Markt: "Big Blues: The Unmaking of IBM" von Paul Carroll). Die Potentiale der PC-Technologie nicht erkannt zu haben, duerfte als eine der grossen Management-Fehlentscheidungen in die DV- Annalen eingehen.

Erst kuerzlich auf der Unix-Expo in New York rieb John Blake, Senior Vice-President Telecommunications der Oracle Corp., der Mainframe-Company wieder Salz in die Wunden: Er rechnete vor, dass noch 1981 ein Grossrechner mit 40 MIPS mit einer um das 400fach hoeheren Rechenleistung aufwarten konnte als ein Intel-PC. Heute kalkuliert ein /390-System nur mehr viermal so schnell.

Bei solchen Vergleichen weist die IBM immer darauf hin, dass hier Aepfel mit Birnen verglichen wuerden. Und sie hat Recht damit - auf der einen Seite. Jeder weiss, dass man natuerlich nie nur die reine Rechenleistung fuer eine Gegenueberstellung heranziehen darf. Zu Recht bemerkt Big Blue (vergleiche diese Ausgabe Seite 75), dass ihre ES/9000-Hosts ueber eine Infrastruktur von Zentral- und Erweiterungsspeichern sowie von Kanaelen fuer Mas- senspeicher- Subsysteme verfuegt, wie kein anderer am Markt erhaeltlicher Rechner.

Wenn IBM aber andererseits den Kostengesang anstimmt und mit Bezug auf Berechnungen von Marktforschungsinstituten wie Xephon behauptet, die Investitionen ueber einen definierten Zeitraum seien bei Mainframe-Konfigurationen erheblich niedriger als bei Unix- Minis und PC-LAN-Loesungen, dann will sie glauben machen, technologische Weiterentwicklungen wuerden sich auf Fortschritte in der Prozessortechnologie begrenzen.

Wer die Innovationsspruenge bei Speichertechnologien kennt, wer die Kostenvorteile erfasst, die durch den Einsatz moderner Massensilos wie optischer Laufwerke in Robotersystemen oder Raid-Speicher zu erzielen sind, der wird verstehen, warum die IBM mit ihren komplexen Grossrechnersystemen zunehmend ins Hintertreffen geraet.

Technologien bieten flexible Skalierbarkeit

Zwar behauptet Big Blue, dass sie 1991 weltweit mehr Grossrechnerleistung als je zuvor verkauft und diese in Deutschland 1992 um 20 Prozent gesteigert habe. Die IBM muss aber auch eingestehen, dass 1992 der Umsatz aus dem Enterprise-Geschaeft um zwoelf Prozent zurueckgegangen ist. Das duerfte grob dem Gesamtumsatz fuer IBMs PC-Business entsprechen.

Ein wesentlicher Vorteil heutiger Technologiekonzepte, wie sie etwa in Superserver-Architekturen e la Netframe, Systempro beziehungsweise Proliant, Tricord oder Parallan zur Anwendung kommen (vgl. CW Nr. 9 vom 28. Februar 1992, Seite 51 ff: "Meine Herren, ich habe..."), ist die Austauschbarkeit der verwendeten Standardkomponenten und deren relativ beliebige Skalierbarkeit (Prozessoren, Chipsets, Festplatten etc.). Zwar sind auch solche Rechner nicht ganz billig und schon aus dieser Sicht nicht mehr mit originaeren PC-Systemen vergleichbar. Sie liegen aber immer noch um den Faktor zehn unter heutigen Grossrechnerpreisen.

Das sind nicht die einzigen Vorteile, die MIS-Manager heute mit dem Einsatz vornehmlich Unix-basierter Serversysteme ernten koennen, wie William Conner, Corporate Vice-President und Director of Information Technology bei der Motorola Inc., auf der Unix-Expo in New York referierte. Als sich die Manager bei Motorolas General Systems Sector (GSS) vor vier Jahren entschlossen, statt auf ihre Mainframe- auf eine Client-Server-Topologie (CS) zu setzen, geschah dies aus Kosten- und Wettbewerbsgruenden.

Als Hardware-Plattform waehlte man Unix-basierte Superserver. Die Erfahrungen zeigten, dass Motorolas GSS-Division mit der CS-Loesung erheblich niedrigere MIS-Kosten (40 Prozent) veranschlagen musste, als aus Mainframe-Zeiten gewoehnt. Zudem habe man nun Zugang zu vielseitigerer Applikations- und Systemsoftware. Die Software- Entwicklungszeiten haetten sich auf ein Drittel reduziert. Als besonderer Vorteil habe sich die stufenlose Skalierbarkeit der Rechenleistung sowie der Peripheriekomponenten erwiesen, was ein ausgezeichnetes Kapazitaetsmanagement erlaube. Bei Abstuerzen sei es moeglich, das gesamte System innerhalb von zehn bis 15 Minuten wieder hochzufahren. So etwas sei mit Mainframes schlicht nicht zu machen. All diese Aktiva koenne man, so Connor, nutzen, ohne dabei die Vorteile eines Enterprise-Datenkonzepts aufgeben zu muessen.

Interessant ist uebrigens, dass ein DV-Hersteller wie Sun Microsystems nicht nur vehement fuer Rightsizing plaediert, sondern es auch selbst betreibt. Sun Microsystems operiert mit seinen 12 500 Mitarbeitern in 45 Laendern.

Wie Terry Keeley, Director der Sun-Abteilung Enterprise Application Architecture, erklaerte, habe man sich bei der Entscheidung, zunaechst einmal einen von zwei MVS-Rechnern abzuschalten, von verschiedenen Erkenntnissen leiten lassen: Zum einen koenne eine Mainframe-orientierte DV-Struktur kurzfristige Veraenderungen in Geschaeftsablaeufen nicht schnell genug nachvollziehen.

Ferner seien notwendige Modifikationen an der DV-Infrastruktur zu kostspielig und langwierig, die Supportkosten - so Suns Erfahrung - stiegen staendig. Vor allem sei es mit Mainframes nicht moeglich, schnell und auf oekonomische Weise an Informationen zu kommen. Noch vor zwei Jahren Betreiber des groessten Cullinet-CAS-Systems, schrumpfe diese Anwendung mittlerweile erheblich. Man habe 50 Prozent weniger Bedarf an DASD-Speicherkapazitaet, wesentlich geringere Unterhaltskosten und keine Integrationskosten mehr.

Das Client-Server-Prinzip, dem das Idealkonzept verteilter Datenhaltung auf unterschiedlichen Serversystemen zugrundeliegt - natuerlich nur, wenn es von der Anwendung her Sinn macht, nutzt dabei den verfuegbaren Stand der Technologie aus. Dieser laesst sich kennzeichnen durch die Begriffe Unix und RISC.

Nicht umsonst setzt die IBM bei ihrer Unternehmensneuausrichtung voll auf ein einheitliches Architekturkonzept, naemlich RISC. Vom tragbaren Rechner bis zum massiv-parallelen Mainframe-Ersatz wird die Power-Architektur in ihren unterschiedlichen Auspraegungen (Multi- und Single-Chip-Loesungen) die Basis von Big Blues Hardware-Konzept bilden.

Multiprozessor-Systeme sind auf dem Vormarsch

Vergleicht man die Leistungen verschiedener Prozessor- Architekturen, wird auch klar, warum sich zukuenftige Server wahrscheinlich ueberwiegend der RISC-Technologie bedienen werden. Gerade in Multiuser-Umgebungen, wo es entgegen den Anforderungen eines Workstation-Arbeitsplatzes vor allem um hohe Leistungen bezueglich der Anzahl unterstuetzter Benutzer geht, spielt RISC seine Staerken aus. Dies gilt vor allem auch fuer den Einsatz von Systemen, die symmetrische Multiprozessor-Architekturen (SMP) nutzen. Hier werden heute Optionen wahr, die zumindest Mittelklasse-Mainframes obsolet machen.

Wie wichtig fuer die gesamte Systemleistung uebrigens die Peripherie ist (und nicht nur die reine Prozessorleistung), zeigt ein Blick in den "Unix System Price Performance Guide" der AIM Technology. Die 1981 gegruendete industrieunabhaengige Organisation aus Santa Clara in Kalifornien hat Benchmark-Suiten fuer Unix-Systeme entwickelt, die - so reklamiert AIM - ein Abbild von Alltagsanforderungen wiedergeben (siehe Tabelle Seite 69).

Auffallend ist, dass praktisch alle RISC-Prozessoren in bezug auf die Anzahl maximal moeglicher unterstuetzter Anwender Intel-CPUs Fersengeld geben. Allerdings sollte erwaehnt werden, dass in der aktuellen Performance-Guide-Ausgabe vom Sommer 1993 auch ein Pentium-Rechner getestet wurde. Die Ein-Prozessor-Variante verhielt sich in einer Multiuser-Umgebung, die per Definition durch eine zunehmende Arbeitslast gekennzeichnet ist, sehr positiv. Erst ab 382 Anwendern ging Intels Top-CPU in die Knie. Allerdings fragen sich Brancheninsider, wie problematisch der Einsatz mehrerer Pentiumprozessoren wegen deren Waermeabstrahlung in einem System werden koennte. Sun-CEO Scott McNealy beantwortete die Zweifel mit einem Witz: Was bekomme man, wenn vier Pentium- CPUs in eine Pizza-Box, also ein Computergehaeuse, gesteckt wuerden: "Eine verbrannte Pizza."

Digital Equipment kennt diese Ueberlegungen auch: Zwar koennen sich die DEC-Entwickler ruehmen, mit dem System DEC3000 Modell 500X ueber den - laut AIM-Benchmarks - leistungsfaehigsten Rechner zu verfuegen (805 unterstuetzte Arbeitsplaetze), ihre Alpha-CPU hat aber eine Leistungsaufnahme von ueber 30 Watt. Uebrigens widerlegen die AIM- Benchmarks auch die von Herstellern gerne verbreitete Maer von der linearen Leistungs- skalierbarkeit durch den Einsatz mehrerer Prozessoren in SMP-Servern.

Nach Phil Hester, Technologie-Guru von IBMs Advanced Workstation Systems Division (AWSD) in Austin, Texas, ist bei acht CPUs die Grenze erreicht, ab der der Overhead solcher Systeme nicht mehr akzeptabel ist. Noch etwas erhellen die AIM-Systemvergleiche: Der an Servern interessierte Anwender sollte ueberlegen, ob er mit einer Aufruestung der Speichersubsysteme (First- und Second-level- Cache, Arbeitsspeicher, Festplatten) moeglicherweise nicht preiswerter faehrt - bei Verbesserung der gesamten Systemleistung - , als in zusaetzliche CPUs zu investieren.