Der Hauptkostenfaktor ist die Software Transaktionsverarbeitung unter Unix als Strategie fuer Downsizer Von Ruediger Stubenrecht*

11.06.1993

Downsizing scheint nichts anderes zu sein, als der Versuch, DV- Kosten zu reduzieren. Haeufig soll ein kostspieliges Mainframe- Konzept durch dezentrale, Client-Server-basierte Loesungen ersetzt werden. Server, die dafuer in Frage kommen, sind naemlich wesentlich preiswerter, erreichen indes aehnliche Leistungen. Doch die Hardware ist nur die weniger wichtige Seite der Medaille.

"Niemand kann mehr die Augen davor verschliessen, dass Unix-Systeme heute eine Leistungsstaerke erreicht haben, die sehr vielen Mainframes absolut adaequat ist", erklaert Werner Ott, Geschaeftsfuehrer der Sequent Computer in Muenchen, einen der Hauptgruende fuer die Downsizing-Diskussion. In der Tat: Bei einer rein auf Durchsatz angelegten Betrachtung schneiden die Top-Unix- Systeme als Multiprozessor-Anlagen mit vielen Prozessoren nicht schlechter als andere, wesentlich teurere Rechner ab.

Diese Betrachtung ist fuer die DV-Szene nicht ganz neu und hat speziell die Marktforschungsinstitute bereits zu Minicomputer und spaeter zu Supermikrozeiten zu irrationalen Voraussagen verleitet; uebrigens unter dem gleichen Downsizing-Stichwort, das heute, nur nach Hardware betrachtet, wieder in die Irre fuehrt. Der Schluessel liegt woanders, naemlich in dem, was aus Computern Loesungen macht: in der Software.

In Zeiten des spitzen Bleistifts muss sich auch die Datenverarbeitung eine ganz nuechterne Betrachtung gefallen lassen: Das Umsteigen auf eine neue Technologie lohnt sich in erster Linie dann, wenn die Summe zusaetzlich aufzubringender Software- und Ausbildungsinvestitionen fuer eine andere Loesung ueberkompensiert wird durch die geringeren Hardwarekosten. Die Verantwortlichen verlangen, dass durch eine neue Technologie im Geschaeftsablauf zusaetzliche Gewinne zu erzielen sind, die die zusaetzlich entstehenden Kosten uebersteigen.

Damit wird auch leicht erklaerbar, warum erst die dritte Downsizing-Diskussion die Mainframes ernsthaft in Schwierigkeiten bringt. Zu Zeiten der Minicomputer gab es niemals genug verfuegbare Software, um diese Anlagen anders als peripher zum Grossrechner einzusetzen. Der PC auch in der Form des Supermikros war als Single-User-System nur ein Mittel der persoenlichen Produktivitaetssteigerung und zur Erschliessung neuer Geschaeftsfelder fuer ein ganzes Unternehmen wenig geeignet. In beiden Faellen wurde das Wachstum der zentralen DV vielleicht etwas gebremst, aber nicht ernsthaft gefaehrdet.

Heute ist die Situation dramatisch anders, denn die neuen, leistungsstarken Unix-Systeme verfuegen ueber ein reichhaltiges Multiuser-Software-Angebot, das Ausbildungs- und Implementationskosten fuer neue Loesungen veraendert. Dazu kommt ein Middleware-Software-Angebot, das auch fuer unternehmenskritische Anwendungen geeignet ist und damit die Ertragsseite der Unternehmensbilanz aendern kann.

Unix-Software

fuer den Mittelstand

Fuer den Einsatz von Unix-Rechnern als zentrale Datenverarbeitungsanlagen im Mittelstand ist das reichhaltige Software-Angebot das beste Argument: Marktverfuegbare Programme und ein breites Schulungsangebot druecken die zusaetzlichen Kosten auf jeden Fall unter das Niveau bei herstellereigenen Loesungen. Damit koennen die prinzipiellen Vorteile offener Systeme voll durchschlagen: groessere Auswahl und damit guenstigere Preise, Zukunftssicherheit und bessere Skalierbarkeit auch bei Geschaeftserweiterung und damit der Notwendigkeit, die Computeranlage auszubauen. Fuer Grossunternehmen reicht dies nicht aus, denn hier sind die Probleme notwendigerweise etwas komplexer. Andrew Huffmann, Vice-President Distributed Computing bei der USL, beschreibt die MIS-Herausforderung: "MIS-Manager sollen Kosten druecken, zur gleichen Zeit aber noch aufwendigere Dienstleistungen anbieten. Das bedeutet, dass sie sich den Technologien offener Systeme in Verbindung mit existierender Hard- und Software zuwenden, um die beiden Welten zu integrieren."

Kritische Anwendungen

meist auf TA-Monitoren

In Grossunternehmen basieren geschaeftskritische Anwendungen fast immer auf Transaktionsmonitoren, denn ohne Middleware dieser Art sind die Verarbeitungsvolumina nur schwerlich und vor allem nicht sicher genug zu bewaeltigen. Einer der wesentlichen Unterschiede zur bisherigen Minicomputer-Welt ist die Tatsache, dass solche Produkte existieren. Damit finden Softwarehaeuser und Endanwender bereits eine Stufe fuer die Entwicklung von Anwendungsloesungen vor. Auch der ambitionierteste Anwender wird sich kaum an eine Entwicklung wagen, die er kaum aus eigener Tasche bezahlen koennte.

Ein weiterer, oft schon beschriebener Vorteil ist die Tatsache, dass OLTP-Monitore unter Unix in einer Vielzahl von Implementationen von der Workstation ueber zahlreiche Anlagen mittlerer Groessenordnung bis zu Mainframes verfuegbar sind. In vielen Faellen kann die Middleware neben den vorhandenen Loesungen auf der vorhandenen Hardware eingesetzt werden, um diese sowohl um Unix-Anlagen als auch um neue Loesungen zu ergaenzen. Sukzessive kann so die Last der Anwendungen von der bestehenden Hardware abgezogen und diese im Lauf der Zeit durch kostenguenstigere Unix- Hardware ersetzt werden.

Beispiele dafuer liefert die niederlaendische Telecom, wo die Vertriebsorganisation damit zu kaempfen hatte, dass unterschiedliche Anwendungen auf vielen verschiedenen Rechnern liefen und fuer eine komplette Neuprogrammierung schlicht Zeit und Geld fehlten. Durch Einfuehrung des OLTP-Systems "Tuxedo" wurden die bestehenden Anwendungen verknuepft und per grafischem Front-end auf PCs fuer die Mitarbeiter einheitlich zur Verfuegung gestellt.

Ein anderes Beispiel gibt das Aussenministerium der Schweiz: Hier wird ein aelterer NCR-Mainframe durch vernetzte Unix-Systeme mit demselben Unix-Produkt ersetzt. Im Endausbau werden 23 unterschiedliche Anwendungen der Personal- und Einsatzplanung ueber die Transaktions-Software betrieben.

Praktikabel ist auch der Einsatz in einer Umgebung mit staendige hohem Transaktionsvolumen: bei der Boerse in Toronto beispielsweise. Wayne Fowler, dort zustaendig fuer Technologie und Netze, fasst seine Erfahrungen zusammen: "Unix-OLTP erlaubt auch bei variierenden und nicht vorhersehbaren Auslastungsgraden der Boerse eine kostenguenstige Loesung mit der Response-Zeit, die die Boersianer verlangen. Auch in diesem Fall laeuft die Entwicklung anders als nach der ueblichen Downsizing-Vorstellung: Zwar wird im Endausbau der Mainframe durch kleinere und preisguenstigere Unix- Systeme ersetzt. Auf der anderen Seite ruesten aber die Mitgliedsunternehmen auf und ersetzen dumme Terminals und Telefone durch PCs mit Unix/Motif und Tuxedo/WS.

Wayne Fowler meint: "Offene Systeme haben heute die beste und kosteneffektivste Technologie. Daher gibt es keinen Grund, etwas anderes als offene Systeme fuer Online-Transaktionsverarbeitung zu pruefen oder zu kaufen."

Dies ist sicher noch nicht das Ende des Weges: "Potentiell kann die Informationstechnologie sehr viel mehr als nur Kosten sparen", meint Werner Ott. "Richtig verstanden, eroeffnet die Abstimmung mit der Geschaeftsplanung die Chance zum Business-Re-Engineering, also auch zur Ueberpruefung der Geschaeftsfelder und damit zur Erschliessung neuer Verdienstmoeglichkeiten."

*Ruediger Stubenrecht leitet die Marketing Communications, Frankfurt.