Minicomputer-Verbund als Großrechner-Ersatz?

18.11.1977

Mit missionarischem Eifer sind die Verfechter von Miniverbund-Konzepten dabei, den EDV-Praktiker von der Wirtschaftlichkeit "auseinandergezogener" Datenverarbeitung zu überzeugen. Gemessen an der Informationsmenge, die Minicomputer- und Terminal-Hersteller via Hochglanz-Broschüre transportieren, ist das Echo aus dem Markt gering: Die deutschen Anwender reagieren auf das Werbe-Getrommel für "Distributed Processing" eher gelassen. Wichtigster Einwand: Die angebotene Software ist den Standard-Programmen für Universalrechner unterlegen. Zudem wird befürchtet, die mit der "zentralistischen" EDV gewonnene Integration könne aufs Spiel gesetzt werden. Schwerwiegend auch das Argument, daß es heute für Minicomputer noch keine Datenbanksysteme gebe, die so aufgebaut sind, "daß physikalisch dezentral gespeicherte Datenbanken zentral als eine logische Datenbank verarbeitet und upgedatet werden können", wie es ein Anwender formulierte. Solange derartige Behauptungen unwidersprochen bleiben, dürfte sich an der abwartenden Haltung vieler "Konservativer" nicht viel ändern. Jetzt muß sich zeigen, was die Marketing-Sprüche der Mini-Garde wirklich wert sind.

Dr. Uwe Andresen, Leiter der Organisation Braunschweigische Maschinenanstalt,

Braunschweig

In der BMA wurde eine Gesamtkonzeption für umfassende, kommerzielle EDV-Anwendungen mit dem Ziel ausgearbeitet,

- einen hohen Integrationsgrad der Datenverarbeitung zu erreichen,

- die Dialog-orientierte Datenverarbeitung in den Fachabteilungen einzuführen,

- in der Praxis erprobte Standardsoftware einzusetzen.

Die Einsatzmöglichkeiten von Minicomputern und auch deren Verwendung im Verbund wurden überprüft, jedoch nach eingehender Analyse verworfen. Die verfügbare Anwendungssoftware entsprach nicht dem Anforderungsprofil des Unternehmens. Qualitativ und quantitativ war die angebotene Software den Standard-Programmen für Universalrechner unterlegen.

Die firmenspezifischen komplexen Anwendungen mit Minicomputern zu realisieren, erschien aus folgenden Gründen zu risikoreich:

- Großer finanzieller und zeitlicher Aufwand für zusätzliche Eigeninitiativen bei der Realisierung der Anwendungen.

- Zu geringe fachliche Unterstützung bei den Problemlösungen durch die Minicomputer-Hersteller.

- Hoher Aufwand für die zweckmäßige Strukturierung eines - bezogen auf die

zukünftigen Anwendungen - flexiblen Rechnerverbundsystems. Zu wenig Erfahrungen der

Hersteller beim Aufbau von Rechnernetzen für die spezifischen, kommerziellen Anwendungen.

Die Einrichtung eines Minicomputer-Verbundsystems für die vorgesehenen Anwendungen war unter diesen Aspekten keine Alternative zum zentralen Rechner.

Jürgen Peter Radler, Kundenbetreuer für EDV-Finanzierungen Citicorp Leasing

(Deutschland) GmbH, Frankfurt

Minicomputer-Einsatz ja - wenn die Aufgabenstellung fest umrissen ist: Dezentrale Organisation, die abgegrenzte Aufgaben abwickeln kann, ohne ständig auf die Informationen der zentralen Datenbank des Hostrechners Bezug nehmen zu müssen.

Insellösungen, die zwangsläufig Eigenleben produzieren und dadurch bestehende ORG-Formen zerstören, müssen vermieden werden.

Außerdem gehört das Know-how der Systemprogrammierung in die zentrale Organisation, denn nur so bleibt bei dezentraler Abwicklung (Verteilung der Arbeitslast) die zentrale Verantwortung erhalten.

Die Systemkonstruktionen und das damit verbundene Leistungsprofil der heutigen Terminalrechner und Minicomputer entspricht in vielem dem, was von Mainframe-Computern verlangt und geleistet wird:

- Programmsprachen RPG, Cobol, Assembler, Basic

- Datentransfer über Wähl-Leitungen und Standleitungen

- Online-Kommunikation mit Hauptrechnern

- Einsatz von modernen Speichermedien, Platten, Bändern

Das bedeutet: Die sogenannten Minis können heute sowohl freistehend zur Bewältigung kommerzieller Aufgaben (Begrenzung hier nur durch das Mengenproblem) als auch in einem sinnvollen Verbund mit einem Datenzentrum genutzt werden. Wichtig ist dabei immer, daß vorab eine genaue Definition erfolgt, wie sie einzusetzen sind. Diese Definition muß zumindest folgende Fragen klären

- Was muß gelöst werden?

- Wie wird dabei vorgegangen?

- Wo muß Speicherkapazität und Intelligenz angesiedelt sein?

- Welche Kosten dürfen da anfallen?

- Welches Sicherheitsbedürfnis steht hinter allen Aufgaben?

Eine generelle Vorgabe, die über den Einsatz von Minis und Terminalcomputern entscheidet und sich auf bestehende praktizierte Lösungen bezieht, gibt es in keinem Fall. Lösungen, die für eine Firma A hervorragend geeignet sind, können für eine Firma B bei gleicher Aufgabenstellung durchaus in Frage gestellt werden.

Dipl-Kfm. Thomas E. Panzer, Geschäftsführer der Computer & Consulting GmbH, Hamburg

Ein Großcomputer ist in vielen Unternehmen die eierlegende Wollmilchsau, das bedeutet, daß er für viele Abteilungen vielfältig eingesetzt wird, allerdings sehr häufig mißbraucht für einfache Schreib- und Rechenarbeiten. Dabei ist das ganze System stark zentralisiert, häufig sehr schwerfällig, darüber hinaus zumindest in den Augen des Controllers teuer und es wird programmiert von Fachleuten, die mehr den Computer als das Sachproblem verstehen. Der Einsatz von einem oder mehreren Minis bedeutet hingegen daß die so oft gewünschte Kostensenkung erreicht werden kann, daß eine Spezialisierung auf die Probleme der Funktionsbereiche und Fachabteilungen stattfindet und daß eine größere problembezogene Flexibilität erreicht wird. Dabei wird die Integration, die bisher auf maschineller Ebene versucht wurde, auf die organisatorische Ebene verlegt. Das bedeutet, daß Führungsbereich und Fachabteilungen ihre Information durchaus von Maschine zu Maschine (und maschinenlesbar) geben können, die Buchung des einen Bereiches jedoch nicht unmittelbar eine Buchung beim anderen auslösen muß. Auf diese Weise kommt man zu einer fachabteilungsnahen, funktionalen EDV.

Jörg Schuppan, Leiter der Datenverarbeitung und Organisation, Continental Gummi-Werke AG, Hannover

Die Frage, ob anstelle eines oder mehrerer Großrechner ein Verbund-Netz von Minicomputern eingesetzt werden sollte, ist meines Erachtens heute noch verfrüht - auch wenn bei einer solchen Lösung der Preis sicherlich nicht uninteressant ist. Eine echte Alternative allerdings könnte erst dann entstehen wenn bestimmte Voraussetzungen erfüllt werden: Die Kosten für einen Mini-Verbund dürften nicht nur 10 bis 20 Prozent unter den Großcomputer-Aufwendungen liegen, die Verfügbarkeit der kompletten Software, insbesondere der komplizierten TP-Software müßte gewährleistet sein und außerdem die Betriebssysteme und Datenbanksysteme mit denen unserer heutigen Großrechner konkurrieren können.

Alle diese Voraussetzungen sind jedoch meiner Ansicht nach heute noch nicht erfüllt. Auch die Preiskomponente, die bei unseren Entscheidungen eine sehr große Rolle spielt, ist durch die letzten Ankündigungen zum Beispiel der IBM und anderer Mainframer zunehmend in den Hintergrund getreten. Wer es heute versteht, Konzeptionen langfristig zu planen, kann durch geschicktes Mixen, Leasen oder Einkauf von Second-Hand-Computern zusätzliche Preisvorteile erwirtschaften, die die eigentliche Kostenspanne zwischen einem Minicomputer-Verbund und dem Großrechner noch weiter schrumpfen lassen.

Wir sind heute noch nicht bereit, ein so hohes Risiko einzugehen und den Großrechner durch ein Minicomputer-Netz zu ersetzen sowie mit einer vielleicht noch nicht ausgereiften und erprobten Verbund-Software zu arbeiten.

Im Vordergrund stehen bei uns die betriebswirtschaftlichen und technisch-wissenschaftlichen Anwendungen und nicht so sehr hardwaremäßige Innovation. Mir ist zudem nicht bekannt, daß es heute bereits Datenbanksysteme gibt, die so aufgebaut sind, daß physikalisch dezentral - also in mehreren Minicomputern beziehungsweise deren Peripherie - gespeicherte Datenbanken zentral als eine logische Datenbank verarbeitet und upgedatet werden können. Es kann aber durchaus sein, daß die Entwicklung weiter in diese Richtung geht. Selbstverständlich hat eine Verbund-Lösung auch ihre Vorteile, speziell im Hinblick auf die höhere Verfügbarkeit: Ist ein Rechner im Netz defekt, kann auf ein anderes System umgeschaltet werden.

Aber auch die Großrechner werden immer sicherer: Die neue Mikroprozessor-Technik innerhalb eines Großcomputers ist ja im Grunde genommen nichts anderes als ein Mikroverbund, gemeinsam in eine Hülle gebracht und ohne zusätzliche für den Anwender relevante komplizierte Verbundsoftware.

Da wir äußerst kostengünstig Datenverarbeitung betreiben, sehen wir also aus dieser Sicht heute noch keine Herausforderung.