MEHRPLATZ-SYSTEME/PC-NETZE

Im Netz lassen sich Systeme aller Groessen integrieren

09.04.1993

Nach der stuermischen Entwicklung der PCs im vergangenen Jahrzehnt und dem Durchbruch der Vernetzungsideen in den letzten Jahren weisen Hard- und Software einen hohen Stabilitaetsgrad auf. Die Hersteller haben es vorlaeufig fast aufgegeben, proprietaere Architekturen als Allein-Seligmacher zu verkaufen.

Der Grundgedanke der Offenheit in Heterogenitaet hat sich durchgesetzt. Diese neue Konstante in Ueberlegungen, Konzepten und Produktlage erlaubt es, den Blick nach vorne zu richten auf die naechste populaere strukturelle Grundform der Datenverarbeitung: Workgroup Computing.

In den sechziger und siebziger Jahren bildete das Terminal am Host den Zugang zur Datenverarbeitung. Nur ein relativ kleiner Prozentsatz der Arbeitenden hatte damit zu tun. Der Siegeszug des PCs in den Achtzigern hat die (Buero-) Welt tief veraendert: Informationen werden zum ersten Mal seit Jahrhunderten in einer anderen Form als auf Papier aufgenommen, gespeichert und weiterverarbeitet. Qualitativ entspricht dies der Umstellung von Tontaefelchen auf Papier und Feder, vom Abschreiben auf den Buchdruck.

Man weiss jedoch mittlerweile, dass der isolierte PC vielfach kein adaequates Hilfsmittel fuer die Aufgabenbewaeltigung in der modernen Informationsgesellschaft ist, weil ihm die Moeglichkeit der Kommunikation mit anderen Geraeten und damit mit den Menschen, die dahinter sitzen, zunaechst fehlt.

Benutzer haben wenig Fachwissen

Darueber hinaus ergeben sich Probleme mit Datenschutz und Datensicherheit, weil die Technik selbst und der Mensch, der sie benutzt, bestimmte Risiken darstellen. Mit der zunehmenden Verbreitung der PC-Technik muss ihre Anwendung immer sicherer gegen Fehlbedienung und Fehleinschaetzung gemacht werden, weil man beim Benutzer immer weniger Wissen ueber die Technik als solche voraussetzen kann. Dies ist grundsaetzlich so, wenn man eine Hochtechnologie sehr vielen Benutzern zugaenglich macht.

Wissenschaftler haben nachgewiesen, dass ueber die Haelfte der Arbeitszeit in der modernen, kommunikativen Bueroumgebung fuer Koordination von Terminen und Aufgaben sowie den Austausch von Informationen verbraucht wird. Der einzeln stehende PC stellt dabei keine Hilfe dar.

Die Vernetzung von PCs mittels lokalen Netzen (LANs) und entsprechenden Netzwerk-Betriebssystemen schafft hier Abhilfe. Entscheidend ist es dabei, die technische Vernetzung zur Implementierung von Software zu nutzen, die die Teamarbeit und ihre inneren Ablaeufe intelligent unterstuetzt und automatisiert.

Die Netze haben selbstverstaendlich ihre technischen Grenzen, sei es in der reinen Uebertragungskapazitaet, sei es in den durch die Betriebssysteme bereitgestellten Funktionen. Es ist daher notwendig, ueber eine uebersichtliche Grundstruktur als Keimzelle nachzudenken, die einerseits die bestehenden Moeglichkeiten optimal nutzt, andererseits moeglichst gut zu den Aufgabenstellungen der modernen Informationsgesellschaft passt und schliesslich die "natuerlichen" Systemgrenzen nicht ueberschreitet.

Nicht mehr der einzelne PC ist die Strukturzelle der modernen Informationsverarbeitung im Unternehmen, sondern das PC-Netz. Dieses Netz verbindet aber nicht nur die Rechner, sondern auch die Personen, die an ihnen arbeiten.

Hierbei bestehen besonders enge Kontakte zwischen den Menschen, die, organisatorisch gesehen, in einem zusammenhaengenden Aufgabenbereich arbeiten, der Workgroup. Diese informationstechnische Strukturzelle gilt es optimal zu unterstuetzen.

Workgroup Computing bedeutet Informationsverarbeitung innerhalb einer durch Aufgaben und Zielsetzungen bestimmten sozialen Einheit von Personen. Grundlage sind mittels LAN vernetzte PCs. Hard- und Softwarestruktur orientieren sich heute meistens am Client-Server- Modell. Die Groesse einer Workgroup schwankt zwischen einigen wenigen und einigen Dutzend Personen, abhaengig vom Umfeld und den Aufgaben. Die Gruppe steht mit anderen Workgroups und gegebenenfalls weiteren Infrastrukturen (Rechenzentrum, Fernnetze, Dienste) in Verbindung. Workgroups werden in Zukunft Anwendungssoftware benutzen, die von konventioneller PC-Software abstammt, aber kommunikations- und kooperationsfaehig ist sowie natuerlichen Multiuser-Betrieb realisiert. Diese Software bezeichnet man auch als Groupware

Heute existieren in groesseren Unternehmen und Organisationen meist datenverarbeitende Einrichtungen recht unterschiedlichen Alters parallel. Daraus ergibt sich eine Koexistenz diverser Formen der Informationsverarbeitung vom Grossrechner-basierten Time-Sharing- Betrieb am Terminal bis zum hochmodernen CAD-Workstation-Netz. Es ist nicht zu erwarten, dass Workgroup Computing die klassischen Formen der Informationsverarbeitung schlagartig abloest. Vielmehr wird es mit passender Software die bisherigen Strukturen durchdringen und integrieren, sofern dies moeglich und nuetzlich ist.

Kombination der Massnahmen

Die aktuellen infrastrukturellen Probleme der modernen Datenverarbeitung wie Datenschutz, Datensicherung und Gewaehrleistung der Integritaet der Informationsverarbeitung lassen sich nur durch eine Kombination von technischen und organisatorischen Massnahmen loesen. Dazu gehoert zunaechst die moeglichst vollstaendige Einbindung von Endgeraeten, zumeist PCs, in ein datentechnisches Basisszenario, welches die Moeglichkeit bietet, mittelfristig hierarchische, starke Kontroll- und Steuerungsmechanismen zu implementieren, wo dies notwendig erscheint. Diese Integration geschieht auf der Basis von Netzen. Groessere Unternehmen oder Organisationen besitzen jedoch zumeist einen Host. Dieser versorgte in der Vergangenheit die ueberwiegende Anzahl der Nutzer mit Leistung. Sieht man von Engpaessen ab, die oftmals nicht durch technische Maengel der Host-Umgebung, sondern durch Geiz des Betreibers entstehen, ist die Datenverarbeitung auf dem Host wesentlich geordneter als das allgemein vorzufindende PC- Chaos, in das auch ein PC-LAN nur mit Muehe und Ueberlegung der Installatoren Ordnung bringt.

Die logisch und physisch enge Verbindung der zentralen mit der dezentralen Datenverarbeitung erzeugt ein ganz neues, weitreichendes Szenario. Wir nennen es verteilte Datenverarbeitung.

Nach weit ueber 30 Jahren des kommerziellen Einsatzes von zentralen DV-Anlagen ist das Fachwissen ueber die einschlaegigen Hard- und Softwarefragen auf einem hohen Stand. Vielfaeltige Anwendungssoftware steht zentral gewartet zur Verfuegung und deckt ein breites Funktionsspektrum ab. Fuer nahezu jeden Bereich in der Industrie, im Handel und in der Verwaltung existieren Programme oder Programmsysteme, die auf grossen DV-Systemen einsetzbar sind.

Angesichts der erheblichen Investitionen in Rechenzentren und Anwendungen sowie der vielen installierten PCs und der positiven und negativen Erfahrungen mit ihnen liegt das Gebot der Stunde nicht in planloser Substitution, sondern bei der gemischten Verwendung beider DV-Welten, der dezentralen Datenverarbeitung mit PCs, PC-LANs oder Minis und der zentralen Datenverarbeitung mittels eines Grossrechners zum Beispiel im Rechenzentrum.

So vielfaeltig die Anwendungen sind, so gross sind auch die Moeglichkeiten fuer die Verteilung der Rechenkapazitaet. Ausserdem werden in groesseren Unternehmen und heterogenen Arbeitsumgebungen wie etwa Forschungsinstituten verschiedenste DV-Loesungen koexistieren. Ihre Integration ist eine der Hauptaufgaben. Ein anderes Ziel ist die geordnete Auslagerung von Funktionen auf kleinere, billigere Systeme (Downsizing). Praktisch alle Unternehmen haben sich verkalkuliert, indem sie das Terminalwachstum ueber- und das PC-Wachstum erheblich unterschaetzt haben. Punkten wie der Softwaredistribution kommt in diesem Zusammenhang eine wesentlich hoehere Bedeutung zu, als man zunaechst dachte. Nimmt man den PCs die Diskettenlaufwerke und laedt sowohl Software als auch Daten fern, so verstopft man darueber hinaus die wichtigsten Quellen des zeittypischen Aergers: Wirre Softwareversionen lassen sich auf diese Weise ebenso vermeiden wie Datenklau in groesserem Unfang.

Verteilte Datenverarbeitung muss durch geeignete Kombinationen von Hardware, Betriebssystemen, Netzen und ihren Protokollen sowie schliesslich Anwendungssoftware realisiert werden. Das moderne Unternehmensnetz ist kein zentral von einer Netzarchitektur gesteuertes baumfoermiges Gebilde mehr, sondern eine organisierte Kooperation unterschiedlichster physischer und logischer Systeme. Diese Struktur orientiert sich idealerweise gleichermassen an den Beduerfnissen der Benutzer, Betreiber und Planer.

Die Workgroup-LAN-Strukturzellen werden in einem Internetz mit anderen Workgroups und weiteren Diensten, zum Beispiel solchen der Grossrechner-Umgebung, verbunden. Das Internetz besteht aus einer Ansammlung von Bruecken und Routern, die entweder unsystematisch sein kann oder, besser, technisch durch ein Backbone-Netz unterstuetzt wird, an das man auch groessere Rechner sinnvoll anschliessen kann.

Konzept mit drei Rechnerebenen

Im Zusammenhang mit der verteilten Datenverarbeitung verfolgen groessere Unternehmen und Organisationen heute vielfach bei Neuplanungen ein Konzept dreier Rechnerebenen:

- Arbeitsplatzrechner-Ebene: Als Endgeraete dienen je nach Anwendung PCs oder Workstations. Sie sind sind in der Regel untereinander mit einem Token-Ring- oder Ethernet-LAN vernetzt.

- Abteilungsrechner-Ebene: PC-LAN-Server, Minis, kleine Mainframes oder PC-LAN- Super-Server versorgen die Arbeitsplatz-Rechner mit anwendungsbezogener und infrastruktureller Leistung. Sie booten zum Beispiel die Arbeitsplatz-Systeme, stellen die arbeitsplatzbezogenen Anwendungssoftware bereit und uebernehmen das lokale Netz-Management, die Verbindung zu Host-Systemen, die Vorverarbeitung von Zugriffen auf Host- Programme wie Datenbanksysteme, die Ankopplung an Fernnetze etc. Die Abteilungsrechner sind einerseits mit dem PC-LAN der Arbeitsplatzrechner-Ebene verbunden und andererseits mit einem Backbone-Netz. Dies koennte neben Token Ring oder Ethernet auch FDDI sein.

- Grossrechner-Ebene

Ein oder mehrere Mainframes stellen die Dienste bereit, die von den anderen Rechnerebenen aus unterschiedlichen Gruenden nicht erbracht werden koennen. Diese Zentralgeraete sind entweder mittelbar (ueber Kommunikationsvorrechner, Front-ends oder Escon) oder unmittelbar (ueber ein High-speed-LAN wie FDDI oder Hyperchannel) miteinander verbunden. Des weiteren stehen sie entweder direkt oder ueber Vorrechner dediziert oder im Rahmen eines Backbone-Netzes, etwa FDDI oder Token Ring, mit den Rechnern der Abteilungsrechner-Ebene in Verbindung.

Arbeitsplatzrechner-Ebene und der den Arbeitsplatz-LANs zugewandte Teil der Abteilungsrechner-Ebene bilden die Hard- und Softwaregrundlage des Workgroup Computing (vgl. Abbildung 1 auf Seite 29).

Unterschiedliche Rechnerebenen fuehren vertikal und horizontal zu mehreren Netzen. Vertikal deshalb, weil ein Netztyp alleine nicht in der Lage ist, allen Beduerfnissen der unterschiedlichen Endgeraete zu entsprechen; vielmehr verwendet man unterschiedliche Netze, die jeweils andere Parameter in Kosten, Leistung und Aufbau haben.

Horizontal werden mehrere Netze gebraucht, weil vor allem die Netze der Arbeitsplatzrechner-Ebene eine begrenzte Kapazitaet besitzen, was die Gesamtleistung und die Anzahl der anzuschliessenden Endgeraete in Hard- und Software betrifft. Aus organisatorischen Gruenden ist es auch vielfach unzweckmaessig, PC- LANs zu gross zu machen, weil dann die Bedienung der Verwaltungsprogramme auf den Servern umstaendlich wird.

Der Benutzer eines Arbeitsplatzes in einem Workgroup-LAN greift auf logische Betriebsmittel (Leistungen) zurueck, indem er von einer objektorientierten Oberflaeche aus Objekte und Leistungen, die ueber das Netz bereitgestellt werden, aufruft und nutzt, wobei es ihm voellig gleichgueltig sein kann, von welcher Art Maschine diese Funktionen bereitgestellt werden.

Der alte Streit "PC-Netz oder Mehrplatz-System" ist hinfaellig. Ein Server in einer Workgroup-LAN-Umgebung kann auf viele Arten implementiert werden, je nachdem, was er leisten koennen soll. Auch die Frage nach den Betriebssystemen ist teilweise geklaert: Wer ein PC-Netz mit Novell-Netware besitzt und es um einen Unix-Rechner erweitern moechte, sollte sich unbedingt das SVR4-kompatible Unixware-Betriebssystem ansehen. Es vertraegt sich naemlich hervorragend mit Netware.

Keine Rueckkehr zum Terminal

Beide Netze koennen Workgroups hervorragend bedienen. Dienstleistungen und Anwendungen lassen sich so ueber die Rechner verteilen, wie es gerade zweckmaessig ist. Bei anderen Herstellern geht die Kompatibilitaet zwischen PC-Netz-Betriebssystem und mittlerem System heute noch nicht so weit, das ist aber nur eine Frage der Zeit.

Darueber hinaus ist der Autor davon ueberzeugt, dass es auch auf der mittleren Ebene keine Rueckkehr zum Terminal geben wird. Das Rechnerangebot auf der Server-Seite der LANs wird immer vielseitiger. Schliesslich werden auf der Basis der Konsortialtechnologien wie OSF DCE die Betriebssystem-Funktionen immer enger zusammenwachsen.

Das Standard-Betriebssystem von 1998 wird ein verteiltes System sein, fuer das Netze und Funktionenverteilung nichts Besonderes sind. Es wird mindestens Unix, DOS, Windows, Windows NT, Netware, Solaris und OS/2 emulieren (vgl. Abbildung 2 oben).

*Dr. Franz-Joachim Kauffels ist Unternehmensberater in Euskirchen.

Abb.1: Drei Ebenen

Groessere Unternehmen verfolgen oft bei Neuplanungen ein Konzept mit drei Rechnerebenen. Quelle: Kauffels

Abb.2: Die kommende Workgroup-Technologie wird alle wichtigen Betriebssysteme emulieren. Quelle: Kauffels