Ein Plädoyer für die Workstation

Client-Server-Architektur integriert Mehrplatz-Systeme

06.09.1991

Mainframes und Mini-Computer als typische Mehrplatz-Systeme sowie Workstations im Client-Server-Verbund liegen im Wettstreit um die Gunst der DV-Kunden. Seit einiger Zeit gibt es spürbare Veränderungen auf dem Markt. Workstations erregen die Aufmerksamkeit der Großen. "Downsizing" ist zum Schlagwort geworden.

Was stellen diese Workstations dar? Sind sie nur irgendein Zeichen der Zeit, oder handelt es sich um eine ernstzunehmende Konkurrenz, die die "Großen" bald vom Markt verdrängt? Wo liegen die Stärken klassischer Mehrplatz-Systeme? Welche Aufgaben können Workstations besser lösen, und welche sind klassischen Mehrplatz-Systemen vorbehalten?

Ein Blick in die Vergangenheit hilft, diese Frage zu beantworten. Seit Anfang der 60er Jahre sind Mainframes ein gewohntes Bild des Computer-Zeitalters geworden. Mainframes, wie die IBM/370 sowie nicht IBM-kompatible Systeme von Bull, Unisys, Siemens oder Tandem, prägen immer noch das Bild der Rechenzentren in Unternehmen und Behörden.

So meint Hajo Fritz, Leiter der Datenverarbeitungszentrale im Versicherungskonzern Allianz: "Unsere Datenbestände sind so gewaltig, daß wir auf große Host-Rechner nicht verzichten können." Ohne Zweifel hat sich der Mainframe im kommerziellen Bereich fest etabliert. Großbanken, Versicherungen und Konzerne arbeiten täglich mit ihnen und dennoch schwebt das Damoklesschwert "Downsizing" über den Mainframes.

Die Systemarchitektur eines Mainframes ist zentralistisch ausgerichtet. Die Zentraleinheit, kurz CPU, steht im Mittelpunkt und setzt sich aus den Komponenten für Verarbeitung, zentrale Speicherung sowie Ein- und Ausgabe zusammen. In der traditionellen Mainframe-Terminal-Umgebung sind alphanumerische Terminals über Konzentratoren mit der CPU verbunden. Während sich die CPU durchschnelle Durchsatzleistungen, große virtuelle Adreßräume und Plattenkapazitäten im GB-Bereich auszeichnet, haben die Konzentratoren ein sehr gutes I/O-Verhalten, um die Masken der alphanumerischen Terminals schnell zu verarbeiten und Informationen weiter an die CPU zu leiten. In einer typischen Mainframe-Umgebung ist ein Einsatz von 1000 Terminals keine Seltenheit. So lassen sich Terminals nicht nur in großer Stückzahl, sondern auch über große Entfernungen, zum Beispiel mittels SNA-Links, in eine IBM-Welt integrieren.

Doch diesen Vorteilen stehen auch Nachteile gegenüber. Einerseits erfordert die Einbindung zusätzlicher Terminals in der klassischen IBM-Welt die Installation einer 3274-Steuereinheit. Dafür ist in der Regel eine VTAM-Generierung notwendig, die nur von einem DV-Spezialisten durchgeführt werden kann und somit Unflexibilität und erhöhten Administrationsaufwand nach sich zieht.

Andererseits bedeutet die Zunahme von Terminals, daß die Antwortzeiten bei rechenintensiven Prozessen extrem zunehmen. Terminals werden von der CPU des Mainframes über ein Time-Sharing-Verfahren gesteuert. Daher nimmt mit der Zunahme von Terminals die Breite des Zeitfensters pro Terminal ab.

Wie lange sich ein Mainframe für die Antwort an einen Benutzer Zeit läßt, zeigt folgendes Beispiel: Bei 150 aktiven Terminal-Sitzungen dauert die Kompilation eines 5000 Zeilen umfassenden Simula-Programms auf einer IBM/370 unter VM/CMS zirka eine Stunde bis zur ersten Syntax-Fehlermeldung.

Kann unter diesen Umständen ein Software-Entwickler Oberhaupt noch sinnvoll arbeiten? Oder denken wir an den Sachbearbeiter, der einem Kunden Informationen aus einer zentralen Datenbank mitteilen will, und es vergehen endlose Minuten, bis die Daten auf der Terminalmaske erscheinen. Sicherlich ist es die Domäne der Mainframes, GB-große Files und B-Datenbestände zentral zu verwalten.

Hier stellt sich die Frage, ob es heute noch Sinn macht, Datenmengen dieses Umfangs zentral zu verwalten. Mit der Zunahme der Datenmenge steigt nicht nur der technische Aufwand, sondern auch System- und Wartungskosten wachsen. Ein anderer Aspekt ist, ob die zentrale Datenhaltung den steigenden Erfordernissen unserer heutigen Informationshaltung Oberhaupt noch gerecht werden kann. Das Bild unserer Gesellschaft ist durch den ständig wachsenden Informationsfluß geprägt. Entscheidende Daten und Informationen müssen extrem schnell aufbereitet und dem Anwender zugänglich gemacht werden. Ist es unter diesen Umständen nicht sinnvoller, das Prinzip der zentralen Informationshaltung heutiger Mainframes völlig neu zu überdenken und im Zuge einer Dezentralisierung der Informationshaltung Informationen an den Stellen zur Verfügung zu stellen, wo sie gebraucht und verändert werden - nämlich am Arbeitsplatz des Anwenders? Dezentrale Informationshaltung heißt nicht nur Verlagerung der Information an den Ort des größten Nutzens, sondern vielmehr Flexibilität des Gesamtsystems und Leistungszuwachs durch Vereinfachung von Strukturen bei gleichzeitiger Kostensenkung.

Anfang der 70er Jahre wurden die Mainframes aufgrund des zunehmenden Kostendrucks und Miniaturisierungszwangs durch die Mini-Computer ersetzt. Die Systemarchitektur im Unternehmen änderte sich vom zentralen Großrechner hin zu vielen autarken Abteilungsrechnern. Zwar konnte man die Leistung der CPU eines Mainframes auf kleine Systeme verteilen, aber die zentralistische Systemstruktur dieser Insellösungen blieb weiterhin bestehen: Unintelligente Terminals sind im Master-Slave-Betrieb mit einem Host verbunden. Informationen werden weiterhin zentral bearbeitet.

Längerfristig wird es sich kein Unternehmen leisten können, weiterhin auf Mainframe-DV und Cobol zu setzen, so Manfred Frey, Geschäftsführer der IDC Deutschland GmbH. Die heutige DV-Welt nimmt zusehends Abschied von den hierarchischen Strukturen traditioneller DV-Systeme. Laut IDC hat eine Umfrage aus diesem Jahr ergeben, daß zentralistische DV-Strukturen in der IBM-Welt weiterhin vorherrschen, aber die Neigung amerikanischer 370-Kunden, auf Client-Server-Architekturen umzustellen, am ausgeprägtesten ist. Unser heutiges modernes Informations-Management wird bestimmt durch grenzenlose Kommunikation, Offenheit und Leistungsfähigkeit. Und der Trend geht weiter: Echtzeit-3D-Grafik, Spracheingabe, automatisches Übersetzen sowie noch anwenderfreundlichere Software sind bald Realität, so Andreas von Bechtolsheim, Mitbegründer des Workstation-Herstellers Sun Microsystems. So waren es gerade die Mitarbeiter von Sun (Stanford University Network), die den Mut hatten, Visionen, innovative Ideen und neue Technologien zu einem neuen Produkt zu formen - der Workstation.

Die Workstation in Form eines Arbeitsplatz-Rechners dringt schon lange in Leistungsbereiche der Minis vor. Und auch im Client-Server-Verbund tritt sie den Siegeszug gegen die etablierten Mainframes an. Die Fachpresse ist voll von Beispielen des sogenannten "Downsizing".

Wo liegt das Geheimnis der Workstation, die in Form eines eleganten Quaders in der Größe eines Aktenordners auf jedem Schreibtisch Platz findet? Die Workstation umgibt sicherlich kein Geheimnis. Sie zeichnet sich durch die einfache, nüchterne Philosophie aus, die Rechnerleistung da zur Verfügung zu stellen, wo sie tatsächlich gebraucht wird - auf dem Schreibtisch des Benutzers. Um optimale Leistung auf kleinstem Raum zu erzeugen, gilt es, sich auf das Wesentliche zu konzentrieren.

Typische Vertreter von Mini-Computern, zum Beispiel die VAX, verwenden überwiegend CISC-Prozessoren. CISC steht für Complex Instruction Set Computer und ist durchaus für die Klassifizierung des VAX-Prozessors mit seinen 300 Maschinenbefehlen gerechtfertigt. Wenn man bedenkt, daß nur 20 Prozent der zur Verfügung stehenden Maschinenbefehle angewendet werden, um 80 Prozent der Berechnungen auszuführen, erscheint CISC nahezu als Verschwendung. Den Grundsatz der Einfachheit und Effizienz als Vorbild, entwickelten einige Hardware-Architekten den RISC-Prozessor. RISC steht für Reduced Instruction Set Computer und kennzeichnet einen stark reduzierten und vereinfachten Befehlssatz. De facto werden weniger Befehle durch eine einfachere Prozessorstruktur schneller ausgeführt. Das Ergebnis ist eine vielfache Prozessorleistung bei gleicher Halbleiter-Technologie. RISC sprengt nicht nur die Fesseln technologischer Sackgassen. RISC ist in der DV-Branche der Nährboden eines exponentiellen Innovationswachstums. Es gibt heute keinen Markt, der in so kurzer Zeit so viele Innovationsschübe freisetzt wie der RISC-Workstation-Markt.

Einer der ersten Vertreter der RISC-Workstation-Philosophie war Sun mit dem Sparc-Konzept. Damit wurde erstmals eine skalierbare Prozessorarchitektur geschaffen, die exakt die Leistung anbieten kann, die den Anforderungen des Anwenders entspricht - im Gegensatz zur klassischen Mehrplatz-System-Architektur.

Mit diesem neuen Gedanken sind unweigerlich mehr Unabhängigkeit, Flexibilität und Erweiterbarkeit verbunden. Unabhängigkeit wird dadurch gewährleistet, daß jedem Anwender seine Rechenleistung zur Verfügung steht, und diese nicht mit anderen geteilt werden muß. Flexibilität läßt sich erreichen, wenn die Rechenleistung kontinuierlich den Leistungsanforderungen des Anwenders angepaßt werden kann. Während in der typischen Mainframe-Umgebung mit jedem zusätzlichen Terminal die Gesamtleistung abnimmt, steigt mit jeder Workstation sukzessive die Gesamtleistung des vernetzten Workstation-Verbunds.

Um eine breite Akzeptanz auf dem RISC-Workstation-Markt zu erreichen, vergibt Sun Lizenzen. So kann jeder interessierte Halbleiter-Hersteller seinen eigenen Sparc-Chipsatz produzieren und jeder interessierte Systemanbieter seine eigene Workstation bauen. Innovationsschübe sind somit programmiert. Das Angebot heutiger Sparc-basierter Systeme reicht vom Laptop bis zum Mainframe. Die Softwarehersteller belohnen dieses Konzept mit zirka 3500 auf allen Systemen lauffähigen Anwendungsprogrammen. Laut einer Marktanalyse der IDC vom Juli 1991 wird dieses offene Konzept mit 53,1 Prozent Marktanteil der auf Sparc-basierenden Workstations am deutschen RISC-Workstation-Markt bestätigt.

Wieso immer mehr Workstations auftauchen

Die Struktur heutiger Unternehmen hat sich gewandelt, Während früher häufig hierarchische Organisationsstrukturen die Unternehmen prägten, ist die heutige Struktur vieler erfolgreicher Unternehmen meist durch ein Netz informeller, offener Kommunikation geprägt. Dort werden Aufgaben nicht mehr von oben nach unten delegiert, sondern Projekte in effizienten Teams und Task forces bearbeitet, deren Mitarbeiter gleichberechtigt sind sowie Verantwortung und Freiräume haben. Das ist ein wesentlicher Grund, warum der traditionelle Mainframe oder Mini mit seiner zentralistischen Struktur den Bedürfnissen vieler Unternehmen nicht mehr in allen Bereichen nachkommen kann. Mit der Entwicklung der Workstation wird vernetztes, interdisziplinäres Arbeiten im Verbund unterstützt und die Idee des Client-Server-Computing in der DV-Welt realisiert.

Client-Server-Verbund mit Mainframes, Minis und PCs

Client-Server-Computing heißt nicht nur Vernetzung sämtlicher Workstations und Server miteinander, sondern Informations-, Rechenleistungs- und Ressourcenverteilung. Client-Server-Computing stellt die Rechnerleistung da zur Verfügung, wo sie gebraucht wird, am Arbeitsplatz des Anwenders. Das ist das wesentliche Unterscheidungsmerkmal zu allen herkömmlichen Konzepten. Durch die universelle Vernetzungsfähigkeit der Workstations innerhalb und außerhalb des Client-Server-Verbundes mit Mainframes, Minis oder PCs wird eine dezentrale Systemarchitektur geschaffen.

Vernetzbarkeit ist die fundamentale Eigenschaft der Unix-Workstations. Denn ohne die Möglichkeit, Daten schnell und einfach auszutauschen, ist eine effiziente Kommunikation und Arbeitsteilung unmöglich. Die Offenheit von Unix erlaubt offene Industriestandards. Die Vernetzung der Sun-Workstations basiert auf NFS und TCP/IP. Damit können Dateisysteme nicht nur netzwerkweit in der gewohnten Unix-Welt genutzt, sondern auch transparent über Betriebssystemgrenzen hinaus dem Anwender zugänglich gemacht werden.

Der Erfolg der Workstations ist untrennbar mit der Idee grafischer Benutzerschnittstellen verbunden. Anwenderfreundlichkeit entsteht dadurch, daß nützliche Informationsquellen gleichzeitig und parallel mittels einer grafischen Benutzerschnittstelle dargestellt werden. Die Entwicklung grafischer Benutzerschnittstellen basiert auf dein X-Windows-System, einem Hardware- und Betriebssystemunabhängigen Protokoll.

Ein Bild sagt mehr als tausend Worte

Mit der auf X-Windows-basierenden grafischen Benutzerschnittstelle Open Look hat Sun eine enorme Vereinfachung in der Bedienung anspruchsvoller Unix-Anwendungen geschaffen. Damit kann die Assistentin auf ihrer Workstation von der Terminplanung bis zur Textverarbeitung alles erledigen, ohne einen Befehl des Betriebssystems zu kennen. Auch der Manager, der sich Kennzahlen und Daten seines Unternehmens von einer Workstation aufbereiten läßt, braucht dazu nur ein paar Mausbewegungen auszuführen.

Zwar eignen sich Mainframes und Minis hervorragend, komplizierte Daten aus Wissenschaft und Forschung zu verarbeiten, sind aber über alphanumerische Terminals unmittelbar nicht in der Lage, Ergebnisse in Form hochauflösender Farbgrafik zu präsentieren. Neben einer hohen Rechenleistung zeichnen sich Workstations durch hohe Grafikauflösung und schnelle Farbdarstellung aus. Die Art der Grafikerweiterung variiert vom Monochrom-Bildspeicher im unteren Leistungsbereich bis zum Grafikbeschleuniger für komplexe 3D-Grafikdarstellung. Grafikbeschleuniger werden hauptsächlich in den Anwendungen MCAD, Schaltkreis-Design, Finanzanalyse sowie Desktop-Publishing eingesetzt. Einsatzbereiche finden sich auch in der dreidimensionalen Grafik für Simulation, Animation und der Visualisierung von Molekularmodellen. Dabei können Grafiken mit verschiedenen direkten, indirekten und diffusen Lichtquellen sowie reflektierenden Körperoberflächen erzeugt werden. Diese Funktionen sind als Hardware auf den Grafikbeschleunigern implementiert. Die Grenzen zwischen der virtuellen Grafikwelt und der Realität verschwimmen immer mehr. Dafür sorgen Monitore mit einer bestechenden Auflösung bis zu 1024 x 1280 Bildpunkten. Die grafischen Fähigkeiten sind ein weiterer Grund, warum sich Client-Server-Konzepte auf dem Vormarsch befinden.

Auch im kommerziellen Markt fest etabliert

Laut einer IDC-Prognose wird der Markt für Workstations in Deutschland um 25 Prozent, gemessen am Wert, beziehungsweise 40 Prozent, gemessen an den installierten Einheiten, wachsen. Die Hauptwachstumsmärkte sind kommerzieller Natur. Logistik, Distribution, Finanzplanung und Fertigungsplanung/Steuerung - das sind die Bereiche, in denen sich Workstations fest etabliert haben und wo sie die traditionellen DV-Systeme zurückdrängen. Gemäß einer weiteren IDC-Analyse bei US-Anwendern planen fast 60 Prozent der IBM/370-User, 35 Prozent der sonstigen Mainframe-Anwender, über 50 Prozent der DEC-VAX-VMS-Anwender, 40 Prozent der Anwender sonstiger Minicomputer und sogar über 40 Prozent der Unix-Multiuser-Anwender eine Umstellung auf Client-Server-DV-Strukturen.

Multimediales Informations-Management

Die Zukunft des Informations-Managements wird auch durch multimediale Eigenschaften geprägt sein. Aber Multimedia-Eigenschaften in Verbindung mit Hochgeschwindigkeits-Kommunikation sind nur einige von vielen technischen Möglichkeiten beim zukünftigen Einsatz von Workstations. Die Verschmelzung der Telekommunikation und der klassischen Informationstechnik steht unmittelbar bevor. Wird ein alphanumerisches Terminal jemals in der Lage sein, Dokumente per Fax zu erstellen und zu verteilen, audiovisuelle Informationen zu empfangen und weiterzuverarbeiten, oder online per Mausklick das Telefonieren ermöglichen? Sicherlich nicht, denn wo die klassische Mainframe-Welt an technologische Grenzen stößt, kommt die Workstation im Client-Server-Verbund zum Einsatz.