Verteilte Datenverarbeitung - vom Jumbo zur Arbeitsstation:

Computerei der Zukunft im Anfangsstadium

16.11.1984

Der Begriff der verteilten Datenverarbeitung (Distributed Data Processing, DDP) kam Ende der 70er Jahre auf. Gemeint war damit im wesentlichen die Auslagerung von Aufgaben aus einem zentralen auf einen dezentralen Rechner. Der Begriff der Atbeitsstation ist erst in den letzten Jahren aufgekommen und jeder versteht darunter etwas anderes. Klaus Kemmler, Produkt Marketing Manager der Digital Equipment GmbH, München, versucht in seinem Beitrag einerseits die Begriffe zu definieren und andererseits die Entwicklung vom Jumbo zur Arbeitsstation aufzuzeichnen.

Den eigentlichen Start in das Zeitalter der Datenverarbeitung kann man auf das Jahr 1964 terminieren. In diesem Jahr gelang es IBM, mit ihrem ersten Rechner der 360-Familie ein System anzubieten, das im Prinzip noch heute den Markt der sogenannten Mainframes beherrscht. Dieses System war darauf ausgerichtet, zentral in Form von Stapelverarbeitung große Mengen von Daten vor allen Dingen im kommerziellen Bereich, zu verarbeiten. Die Bedienung der Anlage forderte (fordert auch noch heute) hochqualifizierte und entsprechend bezahlte Operator. Da auch die Hardware sehr teuer war (und in diesem Bereich auch immer noch ist), ist eines der Hauptanliegen der Benutzer, diese Hardware optimal auszunutzen.

Dies ist im Stapelbetrieb am ehesten möglich. Die 360-Architektur wurde zum Synonym für Mainframe-Architektur und hat sich zu den heutigen Jumbos der MVS/XA-Klasse weiterentwickelt. Natürlich wurden dem Zug der Zeit folgend, diese Maschinen auch um Time-Sharing-Eigenschaften erweitert, um in Form von sternförmig angeschlossenen Terminals Computerleistung an den Arbeitsplatz zu bringen. Gleichzeitig tauchten Mitte der 60er Jahre die ersten Minicomputer auf dem Markt auf. Die PDP-8 von Digital Equipment sei hier stellvertretend für diese Gattung genannt. Waren die Mainframes typischerweise in der kommerziellen Datenverarbeitung und in der Verwaltung eingesetzt, so begann der Minicomputer seinen Siegeszug im technisch-wissenschaftlichen Bereich. Für relativ wenig Geld wurde interaktive Rechnerleistung Wissenschaftlern und Ingenieuren zugängig gemacht, die bereit waren, mit zunächst homplizierten Sprachen ihre speziellen Probleme mit Hilfe dieses Computers zu lösen. Darüber hinaus wurden diese Minicomputer zur Steuerung von Maschinen, Überwachung von Systemen, Kontrolle von Prozeßabläufen eingesetzt, das heißt sie waren im Prinzip dedizierte Rechner.

Zehn Jahre nach der 360-Ankündigung kamen die 16-Bit-Minicomputer auf den Markt, die dem Bereich der interaktiven Datenverarbeitung zum Durchbruch verhalfen. Als klassischer Vertreter dieser Rechnerklasse gilt die PDP-11. Wieder fünf Jahre später, also 15 Jahre nach der, 360-Ankündigung, war der Markt dann bereit. 32-Bit-Minis, sogenannte Superminis, aufzunehmen. Der klassische Vertreter dieser 32-Bit-Rechner ist die VAX. Auch hier war das oberste Ziel der Systementwickler, durch Interaktivität die Produktivität der Programmierer zu erhöhen.

Der Mikrocomputer ist hingegen keine neue Entwicklung, sondern vielmehr die konsequente Anwendung der rapide fortschreitenden Halbleitertechnologie innerhalb vorhandener Konzepte. Die Erfolge der Schaltungsintegration ermöglichten es, komplette Zentraleinheiten auf einem Chip zu realisieren. Dabei ist zu beachten, daß in den Produktionskosten kein Unterschied zwischen der Herstellung eines einzelnen Transistors und der einiger 100 000 Transistoren besteht; der Unterschied liegt in den Entwicklungskosten, die nur über enorme Stückzahlen finanziert werden können.

Ein besonderer Verdienst kommt den Halbleiterherstellern wie Intel und Motorola zugute, die es als erste geschafft haben, Zentraleinheiten auf Chips zu integrieren. Die klassischen Minicomputerhersteller sahen sich damit einer Konkurrenz gegenüber, die es bis dahin in der Form nicht gegeben hatte, und die begann das untere Ende des Minicomputermarktes anzuknabbern.

Was bedeutet dies nun für den Anwender? Wenn man davon ausgeht daß der Unterschied zwischen einem Mainframe und einem Minicomputer (neben dem Preis) rund fünf Jahre beträgt, so ist die Mainframe-Rechenleistung von vor einigen Jahren heute bereits als Chip verfügbar. Die Konsequenz daraus ist, daß Rechnerleistung von den Kosten her an Bedeutung verliert. Berücksichtigt man ferner, daß sich die Preisentwicklung für die Speicherung von

Informationen und die Abmessungen dieser Speichermedien ebenso stark nach unten entwickelt hat, so fallen die Kosten für die Speicherung lokal relevanter Daten vor Ort ebenfalls nicht mehr in der Form ins Gewicht

Um das Ganze bildlich darzustellen: Statt eines Omnibus für 40 Personen kann man heute für das gleiche oder sogar weniger Geld 40 PKWs erwerben. Dabei sind, wie in diesem Vergleich, die individuellen Bedürfnisse der Anwender durch Einbenutzersysteme gezielter zu befriedigen als durch ein zentrales Mehrbenutzersystem. Dies ist einer der Eckpfeiler der Arbeitsstation-Philosophie: Jedem Benutzer seinen eigenen Computer. Die Arbeitsplatzcomputer sind die ersten Vorboten dieser Entwicklung, jedoch von ihrer Rechenleistung, Speicherkapazität und vor allen Dingen Benutzerfreundlichkeit noch weit davon entfernt, auch von ungeübten Laien akzeptiert zu werden. Man kann daher davon ausgehen, daß die Fortschritte in der Halbleitertechnologie, das heißt immer stärkere CPUs im Chip-Format, im wesentlichen zur Erhöhung der Benutzerfreundlichkeit verwendet werden.

Darüber hinaus gibt es selbstverständlich nach wie vor Aufgaben, bei denen hohe absolute Rechenleistung gefordert wird. Für diese Aufgabe sind jedoch Spezialrechner, Array-Prozessoren, Vektorrechner wesentlich besser geeignet als riesige Mainframe-Anlagen. Diese Rechner, die unter dem Oberbegriff "Supercomputer" geführt werden, werden als Dienstleistungsrechner über leistungsfähige Netze von den Arbeitsstationen aus zugänglich sein. Ähnliche Überlegungen gelten für die Bearbeitung großer Datenbanken, für die leistungsfähige Datenbankmaschinen zur Verfügung stehen werden, auf die ebenfalls über Netze zugegriffen werden kann.

Die Zukunft sieht also so aus, daß die Rechenleistung zentraler Mainframes in die Terminals ausgelagert wird, so daß aus Terminals Arbeitsstationen werden. Eine Arbeitsstation ist mithin per Definition ein komplettes Computersystem mit lokaler Peripherie, Betriebssystem und leistungsfähiger Benutzerschnittstelle. Dabei liegt ein wesentliche Schlüssel für die Arbeitsstation Philosophie in der Fähigkeit, diese Geräte untereinander zu vernetzen, auch mit denen anderer Hersteller. Auf der letzten NCC, der National Computer Conference in Las Vegas, waren die ersten optimistisch stimmenden Entwicklungen in diesem die Herstellergrenzen überschreitenden Kommunikationsbereich zu sehen. Unter der Regie des National Bureau of Standards (NBS) war es möglich, über Ethernet als gemeinsames physikalisches Übertragungsmedium Dateien auszutauschen und zwar über die Grenzen von sieben Herstellern hinweg.

Digital Equipment sieht in diesen Bemühungen die einzige Möglichkeit, dem Informationsbedarf der 90er Jahre gerecht zu werden. Die Computerlandschaft ändert sich also dramatisch, den Jumbos wird es ebenso gehen wie den Dinosauriern, sie werden sich nach vorübergehender Dominanz nach und nach ausleben. Lediglich die enormen Softwareinvestitionen sorgen dafür, daß dieser Prozeß nicht von heute auf morgen vonstatten gehen wird. Die Computerei der Zukunft wird aus völlig verteilter Datenverarbeitung, sprich Arbeitsstationen unterschiedlichster Leistungsfähigkeit und Dienstleistungsrechnern bestehen, die über schnelle private und öffentliche Netze verbunden sind. Die Anfänge dafür sind bereits erkennbar.