Netzkonzepte für die Informationsverarbeitung,

Ohne gutes Netzwerk keine Lösung auf Abteilungsebene

02.06.1989

Die Verbindung von Terminals, kleinen und großen Rechnern zu Netzwerken, die die unternehmensweite Informationsverarbeitung unterstützen, ist Mittelpunkt des Produktangebots der meisten Hersteller. Die Strukturen der Netzkonzepte ähneln sich stark, während ihre Ausprägungen nicht zuletzt von der Anwendungsumgebung bestimmt wird. Nicht nur über die Frage, ob diese Strukturen einmal ohne Mainframes auskommen werden, ist sich die Fachwelt uneinig.

Das "dumme" Terminal ist tot. Auf allen Schreibtischen stehen "intelligente" Workstations oder Personal Computer. Alles dezentral, alles persönlich. Die Aufgaben der Mainframes werden von Minicomputern oder PCs "der neuen Generation" übernommen. So skizzierten vor einiger Zeit noch Prognostiker die DV-Wirklichkeit im Unternehmen der 90er Jahre. Heute zeichnet sich klar und deutlich ab, daß es dezentrale Informationsverarbeitung ohne ein zentrales Management nicht geben kann. In großen Unternehmen muß nach wie vor jemand entscheiden, wer welche Daten wann zu verarbeiten hat. Und dazu muß er wissen, wer welche Daten und Ressourcen wann zur Verfügung hat: Es führt kein Weg an einer dem "intelligenten Arbeitsplatz" übergeordneten Instanz vorbei.

Der Begriff des Abteilungsrechners steht im Raum. Was ist das überhaupt? "Bei uns liebt man diesen Ausdruck gar nicht", läßt der Branchenzweite, Digital Equipment, verlauten. Aber was sind denn dann die vielen Vaxen, die Eclipsen und 3000er dieser Welt? "Computer, die für bestimmte Einsatzbereiche ausgelegt sind." Mit dieser Fassung dessen, was sich zwischen 8-Bit-Mikrocomputern und Großrechnern von IBM oder Amdahl bewegt, steht DEC nicht allein.

"Den" Abteilungsrechner gibt es gar nicht

Kaum jemand spricht von der Hardware, kaum jemand beschreibt den Abteilungsrechner in Megabyte, MIPS oder Anschlüssen. Er hat Funktionen zu erfüllen. Funktionen, die sich aus der betrieblichen Organisation, aus der Einbindung des Rechners in die betriebliche Informationsverarbeitung ergeben. Wer über Abteilungsrechner spricht, spricht über Netzwerke, über die Verbindung von PCs, Minicomputern und Großrechnern zu Arbeitsgruppen, über die Verbindung von lokalen Netzen zu Hostrechnern oder untereinander.

Einer Diebold-Untersuchung zufolge sind derzeit 2,45 Millionen Computersysteme in der Bundesrepublik installiert, davon 2,1 Millionen Mikrocomputer. Mehr und mehr davon werden in lokale Netze eingebunden oder können mit Host-Rechnern kommunizieren: Microsoft geht davon aus, daß weltweit jährlich 35 Prozent aller PCs in ein LAN eingebunden werden und daß jährlich rund 300 000 Personal Computer mit 3270-Emulation installiert werden (das sind 7 bis 10 Prozent aller verkauften PCs).

Mit der Terminalemulation fing alles an...

Dieser Trend hat mit der legendären Irma-Karte von DCA begonnen. Die klassische Datenverarbeitung arbeitete typischerweise mit 3270-Terminals an Mainframes. Schätzungen zufolge hat es 1985 in den Vereinigten Staaten fast 3,5 Millionen davon gegeben. Wer statt des "dummen" Terminals lieber einen PC einsetzen wollte, stattete diesen mit einer Zusatzkarte aus und konnte ohne Konfigurationsänderung oder aufwendige Schulung mit dem Mainframe kommunizieren. Nachdem DCA mit Irma (die sich über 600 000mal verkaufte) auf den Markt kam, zogen andere Hersteller, auch IBM, mit 3270-Emulationen für die PC-Host-Kommunikation nach.

Ein Anbieter an diesem Markt ist zum Beispiel die amerikanische Attachmate Corporation mit deutscher Niederlassung in München. Die Connectivity-Software "Extra" läuft nicht nur auf den eigenen Attachmate-Kommunikationskarten, sondern auch auf denen von IBM und DCA. Typisches Problem bei der Terminalemulation ist unter anderem der große Hauptspeicherbedarf, der zu Lasten der Performance des Rechners geht. Das im Vergleich zu IBM und DCA noch recht junge Produkt profitiert vom technischen Fortschritt so beansprucht die Emulationssoftware nach Angaben des Herstellers deutlich weniger (die Rede ist von etwa der Hälfte) Arbeitsspeicher als Wettbewerbsprodukte, unterstützt optional S3G-Graphik oder Vektorgraphik sowie eine breite Palette von Terminals (darunter 3278 Modell 5, das 27 Zeilen in 132 Spalten darstellt) und erlaubt das Herunterladen von GDDM-Graphik vom Mainframe auf den PC.

Technischer Fortschritt auch bei der Host-Anbindung

Anwenderaussagen zufolge ist die Funktion, gleichzeitig bis zu vier aktive Host-Sessions in Fenstern zu verfolgen, hilfreich. Die Vielfalt von 3270-PC-Host-Lösungen zeigt sich auch bei dem Attachmate-Produkt, das die Mainframe-Anbindung nicht nur über Koax, sondern auch über SDLC, LAN Gateway (Netbios) und Token Ring Interface Coupler herstellen kann. Allerdings hat die Leistungsbreite dieser 3270-Gateway-Software auch ihren Preis. Sie liegt, deutlich über dem der Mitbewerber.

Anders als der Markt für "Mainframe Connectivity" entwickelte sich der LAN-Markt sozusagen von unten nach oben. PC-Anwender hatten in der Regel vorher keinen Zugriff auf die zentrale Datenverarbeitung eines Unternehmens. Die Mikrocomputer schafften sie an, um bestimmte Aufgaben am Arbeitsplatz zu erledigen: Textverarbeitung, Tabellenkalkulation. Erst nach und nach entstand der Wunsch, Informationen und dezentrale Ressourcen wie Speicher oder Drucker mit anderen zu teilen.

Lokale Netze hatten ihren Durchbruch etwa 1986. Der IBM-Microsoft-Standard IBM-MS-Net bot 1984 den Anwendern die Möglichkeit, gemeinsam Dateien und Peripheriegeräte zu benutzen. Er hatte allerdings auch Schwächen, zum Beispiel fehlten Standards für die Hardware, für die PC-Verkabelung und für die unteren Kommunikationsprotokolle. Hier hatten die PC-Netze im Vergleich zur PC-Host-Kommunikation mit Emulationen zahlreiche Mängel. Rasche Verbesserungen ließen aber schon 1986 die Anzahl der PC-Netzwerkkarten die der 3270-Karten übersteigen.

Beide Welten bestehen heute nebeneinander. Um miteinander kommunizieren zu können, müssen die PCs entweder mit LAN und 3270-Karten ausgestattet werden oder über LAN-Gateways gehen. Allerdings geraten PC-Netze, in denen das auf 640 KB Arbeitsspeicher begrenzte Betriebssystem MS-DOS eingesetzt wird, hier schnell an ihre Grenzen.

Ob PC oder Unix-Workstation macht keinen Unterschied

Als Standards für lokale PC-Netze etablierten sich die IEEE-definierten "Token-Ring"- und "Ethernet"-Protokolle. Waren LANs ursprünglich lediglich ein Mittel, um Ressourcen zu teilen, sind sie in den letzten Jahren zum festen Bestandteil von Konzepten zur unternehmensweiten Informationsverarbeitung geworden. PCs erlauben immer komplexere Anwendungen, und ob unter verschiedenen Gehäusen "ein PC, ein NCR Tower oder eine Sun Workstation stecken, ist oft nicht mehr zu unterscheiden", strich auch IDC-President Tom Swithenbank während der IDC-Briefing-Session am 21. Mai in Frankfurt heraus. Die steigende Funktionalität erschwert es aber auch den LAN-Anbietern immer mehr, ihre Produkte zu installieren. Technisch ist fast alles möglich, doch können die Netzprodukte dem nicht immer folgen. Hilfreich ist die Definition von Standards für die Übertragungs- und Anwendungsebenen zweifellos, doch "verhalten sich Standards und Funktionalität immer umgekehrt proportional zueinander", gibt Swithenbank zu bedenken.

Leistung von PC-Netzen drastisch gesteigert

Netzwerk-Betriebssysteme wie das zum PC-LAN-Industriestandard evolvierte Netware von Novell unterstützten den Trend zum PC-LAN. Die Systeme haben an Zuverlässigkeit, an Sicherheitsmodulen, Hardwareunabhängigkeit und anderen Eigenschaften gewonnen. Die 32-Bit-Version von Netware unterstützt bereits die Welt der 80386er-Rechner. Und mit Entwicklungen wie dem LAN-Manager für das Betriebssystem OS/2 erreichen PC-Netze Leistungsmerkmale unter anderem in Netzwerksteuerung, Multitasking, Interprozeßkommunikation, Zugriffsschutz, Datenbanknutzung wie sie bislang nur bei der Vernetzung größerer Systeme erzielt wurden. Der LAN-Manager arbeitet in allen Kommunikationsabläufen mit Industriestandards und erleichtert damit auch die Anbindung von LANs an Hosts oder an andere Netze. Ein mit dem LAN-Manager konfiguriertes PC-Netz ist nach Angaben von Microsoft zudem kompatibel zu Workstations und Servern, die mit der Netzwerksoftware MS-Net, IBM PC LAN und Xenix-Net eingesetzt werden.

Was nun die unternehmensweite Vernetzung betrifft, die LANs umfassen kann, verfolgen einzelne Hersteller unterschiedliche Philosophien. Im Bereich der kleinen und mittleren Systeme, Kaufpreis zwischen 25 000 und 500 000 Mark, führt laut einer Diebold-Statistik die Paderborner Nixdorf Computer AG den deutschen Markt mit 12,9 Prozent der installierten Systeme vor Siemens mit 112 Prozent. Das Netzwerkkonzept von Nixdorf geht, was die physikalische Netzrealisation betrifft, wie bei vielen anderen Herstellern von einer hierarchischen Drei-Ebenen-Strategie aus: horizontale Etagenverkabelung, vertikale Gebäudeverkabelung und horizontale Geländeverkabelung.

Die horizontale Etagenverkabelung wird bei Nixdorf in der Regel mit verdrillten Vierdrahtleitungen ausgeführt. Die Twisted Wiring Infrastructure Star Topology (Twist) ist ein Verkabelungssystem, "das sicherstellt, daß sowohl 4 Megabit pro Sekunde und 16 Megabit pro Sekunde Token Ring gemäß IEEE 802.5 als auch Ethernet on Twisted Pair gemäß dem im Entstehen begriffenen Standard IEEE 802.3 10 Base T betrieben werden können", erläutert dazu der Netzwerkspezialist bei Nixdorf, Dr. Rüdiger Meisenburg.

Backbones unterstützen unterschiedliche Subsysteme

Für die Verkabelung zwischen den Etagen und den Gebäuden zieht Nixdorf "zur Zeit noch die Breitbandverkabelung als die sogenannte Backbone-Verkabelung" vor, sagt Meisenburg. "In Etagen und Abteilungen kann es recht unterschiedliche Subnetze geben wie Token Ring, Ethernet oder Proprietary-Netze. Das kann für die Backbone-Netze bedeuten, mehrere Kanäle gleichzeitig betreiben zu müssen, wofür sich die Breitbandtechnologie, mal abgesehen von den hohen Datenvolumina, gut eignet." Daneben gewinnt die Glasfaser an Bedeutung. "Die hat auch einen modischen Touch. Viele Kunden fragen danach, weil es sie gibt. Die Vorteile der Abhörsicherheit, der Sicherheit vor elektromagnetischen Einflüssen von außen, der hohen Datenraten und großen Reichweite sind sicher richtig, doch fragt sich, ob die Funktionalität der Glasfaser heute auch schon ausgenutzt wird." Darüber hinaus ist die Standardisierung im Bereich Glasfaser noch nicht weit gediehen. Bisher können Subnetze oder Endgeräte an die Glasfasernetze allenfalls über herstellerspezifische Schnittstellen angeschlossen werden. Für die Anschlußgeräte wird noch in diesem Jahr mit dem ersten Standard für "Ethernet auf Glasfaser" gerechnet.

Im nächsten Jahr werden auch weitergehende Standardisierungen für die Glasfaserschnittstelle FDDI (Fibre Distributed Data Interface) erwartet. Zahlreiche DV-Hersteller arbeiten im ANSI Gremium X3T9.5 an der FDDI-Standardisierung mit. Erste Pilotinstallationen soll es schon in diesem Jahr geben.

Die Software des Netzkonzepts zur Kopplung von PCs mit Nixdorf-Rechnern basiert zunächst einmal auf den schon genannten Standard-Netzwerkbetriebssystemen Netware und LAN-Manager. "Der LAN-Manager verfügt über eine weitergehende Funktionalität als Netware, muß aber wie alle neuen Produkte seine Leistungs- und Funktionsfähigkeit, seine Fehlerfreiheit unter Beweis stellen", kommentiert Meisenburg.

Die Kopplung der Nixdorf-Rechner untereinander kann über Nixdorfspezifische Kommunikationssoftware, über Token Ring und Ethernet erfolgen. Für die Anbindung an Mainframes werden SNA-Protokolle genutzt. In heterogenen Netzen, in denen PCs zum Beispiel auch auf Sun oder DEC-Rechner zugreifen sollen, kann die Umsetzung der Protokolle in ISO oder TCP/IP zum einen über Gateways realisiert werden, wobei für jedes Protokoll jeweils auch ein Gateway zur Verfügung gestellt werden muß.

Multiple-Protocol-Lösung günstiger als Gateways

Günstiger für die Performance und das Preis/Leistungs-Verhältnis eines Netzsystems ist die Verwendung der sogenannten Multiple Protocol Architecture. Dazu werden PCs mit einem Protokolladapter, zum Beispiel Ethernet, und entsprechender Treibersoftware ausgestattet. Mit Hilfe einer Art Multiplexersoftware werden im PC verschiedene Protokoll-Stracks implementiert, die die Umsetzung der Protokolle von TCP/IP über ISO bis hin zu herstellerspezifischen übernimmt. Der Multiplexer entkoppelt sozusagen die höheren von den niedrigeren, den eigentlichen Übertragungsprotokollen (Lösung der amerikanischen Hughes LAN Systems, früher Sytek, die zum General Motors Konzern gehört).

Auch die Netzwerkprodukte von Hewlett-Packard basieren auf Industriestandards beziehungsweise internationalen Normen. HP Advancenet umfaßt verschiedene Netzwerkvarianten für die lokale Kommunikation und Datenfernübertragung. Die Netzprodukte sind zu Lösungen für bestimmte Unternehmensbereiche zusammengefaßt, zum Beispiel für das Büro, die Fertigung oder den Vertrieb. Das Büropaket bietet HP in sechs logischen Modulen an: Das Anwendermodul definiert entweder die Arbeitsplatz-, Arbeitsgruppen- oder Abteilungsanbindung. Arbeitsgruppen können als Cluster oder als LAN an einen Host angebunden werden.

Arbeitsgruppen lassen sich zu Subnetzen zusammenfassen

In Abteilungen, wo PCs oder Terminals und eventuell ein Abteilungsrechner an andere Hosts angebunden werden sollen, geht HP den Weg über ein Backbone-Netz. Das Modul 2, "Rechenzentrum", vernetzt auf Ethernet-Basis und mit TCP/IP-Protokollen Host-Rechner miteinander. Benutzer und Programmierer werden damit unter anderem beim Dateitransfer sowie beim Zugriff auf Peripheriegeräte und Datenbanken unterstützt. Neben den Netzwerkdiensten gehören Thin-LAN-Verteiner und Karten, verschiedene Terminalanbindungen sowie Bridges zu diesem Modul.

Die unternehmensweite Kommunikation unterstützt das Büromodul 3, das besonders auf den gegenseitigem Informationsaustausch abzielt. Entfernte Systeme werden dabei über ein X.25 oder SNA-Backbone angebunden. Soll ein HP-Rechner mit einem entfernten Rechenzentrum kommunizieren, kann er direkt oder über ein LAN-Gateway auf das X.25-Netz zugreifen. Steht dort ein IBM-System, kann auch ein X.25-SNA-Gateway oder ein SNA/X.25-Protokollkonverter eingesetzt werden.

Das Modul 4 legt die Kabelstruktur der Advanced-Net-Bürolösung fest. Arbeitsgruppen werden zu Subnetzen zusammengefaßt, die wiederum an ein Backbone geführt werden. Dafür stehen jeweils verschiedene Kabelvarianten zur Wahl: Ungeschirmte Zweidrahtleitungen, zum Beispiel als Star-LAN mit 1 beziehungsweise 10 Megabit pro Sekunde realisiert (entspricht IEEE 802.3); Thin-LAN auf Basis eines dünnen Koaxialkabels, das mit Star-LAN kompatibel ist und "gemischt" werden kann; als Backbone bietet HP eine Basisband-Lösung (Thick-LAN) und eine Breitband-Lösung an. An beide können Star-LAN und Thin-LAN-Subnetze angebunden werden. Modul 5 unterstützt das Netzwerkmanagement, das unter anderem Funktionen wie Überwachung, Diagnose und Steuerung der Netzkomponenten erfüllt. Modul 6 umfaßt die HP-Dienstleistungen von Planung des Netzes bis zu Mitarbeiterschulungen.

Auch Data General wendet sich OSI zu

Umfassende "Verpflichtungen" in Hinblick auf Standards hat unter anderem auch Data General auf sich genommen. Der Hersteller hat ein langfristig angelegtes Konzept angekündigt neben der Proprietary-Welt rund um die Produktfamilie Eclipse MV eine Unix-Welt auf Basis der Motorola 88000-Risc-Architektur aufzubauen. Beide Produktlinien werden derzeit weiterentwickelt und unterstützt. Auch das Netzwerkkonzept beruhte bisher auf dem herstellerspezifischen, hierarchischen System Xodiac, das unter dem DG-Betriebssystem AOS/VS läuft und für die Kommunikation von DG-Rechnern auch herstellereigene Protokolle benutzt.

Daneben hat Data General verschiedene OSI-Produkte angekündigt, um ihren Kunden auch die Kommunikation in Multivendor-Umgebung zu ermöglichen. Das erste OSI-Produkt kam 1987 auf den Markt: eine X.400-Implementierung, die Benutzern des DG-Büroautomationssystems CEO die Kommunikation mit anderen X.400-Nutzern erlaubte. Derzeit umfaßt die OSI-Produktreihe FTAM-Unterstützung (File Transfer, Access and Management) für die Kommunikation in OSI-konformen Netzen und eine Anwendungsschnittstelle OAPI (OSI Applications Plattform Interface). Eine Kommunikationsplattform auf Basis der Schichten 2 bis 7 des OSI-Modells mit der Bezeichnung OSI Transport Services stellt Routing und Endsystem Transport Services über LANs und WANs bereit. Und das Open Network Management System umfaßt Rechnernetz-Monitoring und Kontrollen unter anderem für OSI und DG-Kommunikationsarchitekturen.

Für die Anbindung von Personal Computern in Rechnernetze arbeitet Data General mit der "PC-Integrationsplattform", die eine MV als Server benutzt. PC*I basiert auf den OSI-Protokollen IP (Internet Protocol) und TP (Transport Protocol) und unterstützt Industriestandards wie Netbios zum Beispiel. Die so konfigurierten DG-PC-Netze können unter Ethernet und Star-LAN-Standard laufen, unterstützen jedoch keine PC-LANs anderer Anbieter.

Ähnliche, mehr oder weniger komplette "Kompaktangebote in Sachen Netzkonzept lassen sich von zahlreichen Anbietern beschreiben. Auch NCR bietet im Bereich der Abteilungsrechner herstellereigene Systeme in Form der NCR 10 000 Familie unter dem Betriebssystem ITX sowie Standardsysteme wie den NCR Tower unter Unix. Auf Arbeitsplatzebene werden Rechner über Vierdrahtleitungen, Ethernet, Token Ring oder Glasfaser vernetzt, wobei sowohl Terminalemulationen als auch Drucker, Kommunikations- und Anwendungsserver realisiert werden. Dazu benutzt NCR unter anderem Produkte wie das Novell Netzbetriebssystem Netware, TCP/IP, NCR Token Ring mit Netbios-Schnittstelle und SNA-APPC.

Über Gateways Zugang zu Postnetzen

Für die Vernetzung von Abteilungsrechnern untereinander umfaßt das Netzkonzept neben den schon genannten Medien auch die öffentlichen Postdienste, die wie bei den meisten Anbietern auch über entsprechende Gateways zugänglich gemacht werden. Von der Netzlogik her realisiert der Anbieter damit: Transparent Network File System, Electronic Mail, verteilte Datenbank, Application Resource Sharing und die gemeinsame Nutzung von Gateways. Für die Anbindung an Mainframes kommen neben OSI und De facto-Standards wie TCP/IP auch SNA-Protokolle zum Einsatz.

Sich "nur" den Standards zu verpflichten, reicht nicht aus. Ein vernünftiges Marketingkonzept verlangt "uniqueness", ein wichtiges Unterscheidungskriterium gegenüber dem Mitbewerb. Das sind in der Regel die "Add-Ons" in Form von Beratungsleistungen, die alle Hersteller anbieten.

Mainframes: in Zukunft weniger dominant

Wo aber bleiben die Großrechner? Was die Zukunftsvision nahelegte, das Verschwinden der Mainframes, erscheint heute ebenso unwahrscheinlich wie vor einigen Jahren noch die rapide Verbreitung der PCs und ihre Bedeutung für die Unternehmenskommunikation. Die Rolle der Großrechner verändert sich. IDC zufolge haben Mainframes eine Zukunft. "Allerdings werden sie künftig eine andere und teilweise weniger dominante Rolle in den Informationsinfrastrukturen der Unternehmen spielen", heißt es. Mainframes seien ideale Server in vernetzten Umgebungen, etwa als Datenbank, Kommunikations- oder Verarbeitungsserver.

Von einer Ausweitung der Mainframe-Rolle geht auch Reiner Wolter, Marketing-Direktor der Amdahl Deutschland GmbH, aus: Generell könne man prognostizieren, daß jeder installierte PC den Bedarf an Mainframe-Kapazitäten steigert, meint Wolter. Großrechner werden die PCs und Abteilungsrechner mit zentraler Intelligenz versorgen und den Informationsfluß im gesamten Netz steuern. In Netzen kommt dem klassischen Mainframe die Aufgabe des Servers für Datenbanken zu. Vom Aussterben der "Dinosaurier" der elektronischen Datenverarbeitung also keine Rede. Wolter geht vielmehr davon aus, daß es in Zukunft Mainframe-Cluster geben wird, daß die Datenverwaltung außerhalb der CPUs stattfindet und daß Datenübertragungen in Terabyte-Raten erfolgen.

Fünf Faktoren bestimmen betriebliches DV-Konzept

Etwas anders sieht es ein Anwender. Bernd Jacke ist Geschäftsführer des Rhein-Main-Rechenzentrums in Frankfurt. Der Mainframe-Profi geht davon aus, daß die Auslegung des betrieblichen DV-Konzepts und damit die Entscheidung für eine Mainframe-Lösung, ein Abteilungsrechnerkonzept oder eine vernetzte Mischform aus beiden von fünf Aspekten abhängt. Dazu gehören der Grad der Integrationsnotwendigkeit der Anwendungsgebiete, der Grad der Ablaufsicherheit, die Verfügbarkeit von Anwendungssoftware, variable oder starre Ressourcenzuordnung sowie kurz und mittelfristig erkennbare Ressourcenveränderungen. "Wenn in Zukunft sichergestellt wird, daß

- Betriebssystemkonzepte standardisiert werden oder funktionsgleich im Rahmen eines Netzes reagieren,

- gleiche File-Management-Systeme überall verfügbar sind oder gleich funktionieren,

- gleiche Anwendungssoftware (mit gleicher Benutzeroberfläche)

vorhanden ist,

- dann ist vorstellbar, daß Abteilungsrechner einmal Mainframes ersetzen können."

Eine Herausforderung für jedes Netzwerk.