Modernes Unternehmensnetz ist kein baumförmiges Gebilde mehr

Internetworking kennzeichnet die Struktur der verteilten DV

14.08.1992

*Dr. Franz-Joachim Kauffels ist unabhängiger Unternehmensberater in Euskirchen bei Bonn.

Die Informationsverarbeitung steht vor einem völligen Umbruch, der in weiten Bereichen die Abkehr von bisherigen Techniken, zum Beispiel von zentral verwalteten Netzen, mit sich zieht. Franz-Joachim Kauffels* faßt die für den lokalen, datenorientierten Bereich wesentlichen Entwicklungen zusammen und zieht darüber hinaus Schlüsse auf notwendige Strukturmaßnahmen, die es den Unternehmen erlauben, ihre Netze und Kommunikations-Infrastrukturen dem Wandel möglichst geschickt anzupassen.

Die drei wichtigsten Einflußfaktoren für die Entwicklung moderner Unternehmensnetze können folgendermaßen zusammengefaßt werden:

- Schnellere, hochwertigere und zahlreiche Endgeräte (Hardware),

- komplexere und leistungsfähigere Anwendungs- und Betriebssystem-Software sowie

- dauerhaft höhere Anforderungen von Benutzern und Betreibern.

Für die LANs ist die rasante Entwicklung der Endgerätetechnologie tragisch. Ein System wie Ethernet hatte zu seinem Erscheinungszeitpunkt eine weithin überlegene Übertragungsleistung. Die internen Kanäle oder Busse sind aber in den letzten Jahren schneller geworden als die LANs.

Eine gängige Größenordnung für ein einzelnes LAN liegt heute zwischen 50 und 200 Arbeitsplatz-Systemen. Arbeitsplatz-Rechner der AT-Klasse werden bei dieser Größenordnung von einem bis zu fünf Servern der 486er Klasse hinreichend versorgt. Steigt jetzt die Klasse von Workstations (zum Beispiel 486er) und Servern (zum Beispiel Super Server) jeweils an ist mindestens mit einer Leistungsexplosion um den Faktor 10 zu rechnen. Würden die alten LANs wie Ethernet oder Token Ring beibehalten, möglichst bis zur Spezifikationsgrenze vollgepackt mit Endgeräten, steht der Engpaß unmittelbar bevor. Diese Leistungsproblelmatik wird sich in wenigen Fällen spontan ergeben. Die Verantwortlichen für die Unternehmensnetze dürfen jedoch nicht dem Fehlglauben verfallen, daß die installierte Netzwerkbasis auch noch nach Durchlaufen mehrerer Innovationszyklen den gleichen Vorsprung hat wie heute.

Der verteilten Datenverarbeitung mit mehreren Client-Server-Rechnerebenen und unterschiedlichen Netzen gehört in den meisten großen Unternehmen und Organisationen die Zukunft. Mit zunehmender Anzahl intelligenter Endgeräte und immer stärker verzweigten Netzstrukturen treten neben rein funktionalen Anforderungen vor allem infrastrukturelle Aspekte (Netz-Management, Datenschutz, Verarbeitungsintegrität) in den Vordergrund.

Zusätzliche Funktionen brauchen mehr Neztleistung

Als Plattform für die Entwicklung von Anwendungssystemen, müssen stabile, logisch möglichst hochstehende Konzepte für die Kommunikation von Anwendungsprogrammen oder Teilen von Anwendungsprogrammen in einer verteilten Umgebung dienen.

Hier gibt es zwei Alternativen: Architekturen für Systemanwendungen wie SAA oder Decnet, die unterschiedliche Hard- und Softwareplatfformen mit einheitlichen Schnittstellen versehen und darauf Betriebs- und Anwendungssoftware aufsetzen, oder verteilte Betriebssysteme, bei denen der heute üblicher weise auf einen einzelnen Rechner beschränkte Wirkungsbereich eines Betriebssystems auf mehrere, untereinander vernetzte Rechner ausgedehnt wird. Die Weiterentwicklung der Betriebsysteme in Richtung verteilte Systeme ist zwingend und in vielen Bereichen schon abzusehen. Dabei hat es sich eingebürgert, daß zunächst Teilaspekte implementiert und gesondert vermarktet werden.

Dies trifft zunächst auf die Dateisysteme zu. Das Network File System von Sun (NFS) ist wohl das bekannteste Beispiel hier für. X-Windows zeigt im Unix Bereich, wie man von einem Endgerät auf alle verfügbar gemachten Betriebsmittel des Netzes zugreifen kann. Multithread-Architekturen bereiten die nächste Stufe vor, nämlich die freizügige Verteilung von Prozessen im Netz. Das DCE (Distributed Computing Environment) der OSF ist ein Beispiel für das heute Machbare. Darüber hinaus gibt es noch eine große Anzahl weiterer unmittelbar vor der Marktreife stehender Prototypen.

Klar sein sollte jedoch, daß es alle diese zusätzlichen Funktionen nicht umsonst gibt und daß sie auf der Netzseite mehr Leistung benötigen. Auch ein verteiltes Betriebssystem wird wie das Betriebssystem eines monolithischen Hosts einen guten Teil der Netz und Systemleistung für sich beanspruchen. Aus der Sicht des Anwenders ist es im Idealfalle so, daß er eine abstrakte Vorstellung von 2 Objekten hat (Daten, Programme), mit denen er Operationsausführungen initiieren, durchführen und terminieren kann (Daten ändern, verknüpfen, Programme ausführen etc.). Der Benutzer muß jedoch keine Vorstellung darüber haben, ob eine ihm zur Verfügung stehende Ressource in seinem Arbeitsplatz-Rechner implementiert ist, ob er ein LAN bemühen muß, um die Ressource in einer benachbarten Maschine zu finden, oder ob gar eine Fernverbindung benötigt wird.

Mit zunehmendem Anstieg des Datenaufkommens durch leistungsfähige Systeme und kommunikationsorientierte Anwendungen in heutigen lokalen Netzen werden die Grenzen von Systemen wie Token Ring oder Ethernet offenkundig. Netze mit Datenraten von bis zu 16 Mbit/s sind nicht mehr in der Lage, zum Beispiel komplexe Grafiken oder auch hochauflösende Bildinformationen in größerem Umfang adäquat zu übertragen. Mit immer weiter verzweigten Netzwerk- und Systemleistungen wachsen natürlich auf die Anforderungen an ein heterogenes Netzwerk-Management.

Werfen wir einen Blick in die Zukunft am Beispiel der Entwicklung der Hochgeschwindigkeitsnetze und Architekturen von IBM und DEC. Eine mögliche Klassifizierung der Entwicklungslinien bei Hochgeschwindigkeitsnetzen kann wie folgt aussehen: Ein High Speed Local Area Network (HSLAN) mit einer Übertragungsrate von 100 Mbit/s sorgt in der herkömmlichen Umgebung eines Rechenzentrums (Front-end) für die schnelle Verbindung zwischen modernen Rechnerkernen auch in der Workstation-Umgebung (Back-end) und fungiert als Verbindungsinfrastruktur zwischen langsameren LANs sowie Backbones. Das wichtigste Beispiel hierfür ist das mittlerweile von allen wichtigen Herstellern unterstützte FDDI (Fiber Distributed Data Interface) mit 100 Mbit/s auf STP oder Fiber Optic.

Ein Metropolitan Area Network (MAN) ist so schnell wie ein HSLAN und in der Lage, größere Entfernungen zu überbrücken. Es hat nicht primär die Aufgabe, eine Rechnerkoppelung zu realisieren, sondern verbindet auf einem größeren Gelände digitale Nebenstellenanlagen und LANs. In der Bundesrepublik Deutschland fördert die Telekom städteübergreifende MANs zur Zeit versuchsweise. Denkbar ist jedoch eine Anwendung auf großen Geländen (Corporate Backbone Network) von Firmen oder Forschungseinrichtungen. Beispiel ist die DQDB-Technik (Distributed Queue Double Bus) auf Glasfaser mit Übertragungsraten bis zu 500 Mbit/s.

Schließlich wäre noch das Super Computer Local Area Network (SCLAN) denkbar. Hier ist die technologische Spitze zu suchen, da eine Geschwindigkeit von über 1 Gbit/s angestrebt wird, um die Supercomputer angemessen mit Daten versorgen zu können oder wirklich leistungsfähige Backbones aufzubauen. Die räumliche Ausdehnung ist hierbei nicht so wichtig. Beispiel: IBMs Orbit-Technologie, ein Super Token Ring mit rund Gbit/s Leistung (Doppel-Glasfasertechnik), aber auch IBMs Escon-Kanalarchitektur mit bis zu 800 Mbit/s.

Für die Strukturierung von Unternehmensnetzen sind zunächst die HSLANs das naheliegendste, zum einen, weil in einigen Unternehmen schon Erfahrungen mit solchen Systemen wie NSCs Hyperchannel vorliegen, zum anderen, weil durch die Standardisierung von IEEE und ANSI ein relativ fließender Übergang zwischen Token Ring, Ethernet und FDDI zu erwarten ist. FDDI ist hinsichtlich der Standardisierung und Produktlage der einzig gegenwärtig ernst zu nehmende HSLAN-Standard.

Die Standardisierungsorganisation ANSI arbeitet momentan an FFOL (FDDI Follow on-LAN). Ein FFOL-HSLAN soll die optische FDDI-Infrastruktur nutzen können und darauf Datenraten zwischen 155 Mbit/s und 2,4 Gbit/s für synchrone und asynchrone Dienste realisieren. In den USA läuft derzeit das Forschungsprogramm HPPC (High Performance Computing and Communication) mit Teststrekken im Gbit/s-Bereich.

SNA und die im Rahmen von SAA gebildeten Erweiterungen mögen als Beispiel für die Entwicklung einer Familie von Netzhard-, -soft- und -firmware zur Steuerung von Terminals als Basis für die Realisierung verteilter Anwendungen in einer vielseitigen Umgebung vom Arbeitsplatz-Rechner bis zum Großsystem gelten. SAA sieht für PS/2-Modelle, Systeme /3X und AS/400 sowie für Großrechner der Reihe /390 eine einheitliche Anwendungs-, Benutzer-, Entwickler- und Kommunikationsunterstützung vor, die jedoch auch von anderen IBM-Systemen wie der RS/6000 genutzt werden kann.

Das moderne SNA-Netz beinhaltet im Gegensatz zu früher eine Vielzahl unterschiedlicher Vernetzungstechniken vom LAN über Backbones bis zu Escon-Sternen. Also ist auch eine Abkehr von hierarchischen Steuerungsmechanismen notwendig. Die neue Routing-Technik APPN (Advanced Peer-to-Peer Networking) löst, ergänzt durch Standard-Kommunikationsprotokolle wie OSI oder TCP/IP, mittelfristig den starren Host-SSCP (System Services Control Point) ab. Diese Ablösung kann im Einzelfall jedoch länger als ein Jahrzehnt dauern.

Alle Computer- und Netzwerkhersteller sprechen davon, OSI zu unterstützen. Sieht man genau hin, könnte man eher davon sprechen, sie leben lassen sprechen, da OSI eine Lösung ist, die im Rahmen der hausierenden Architektur ab und zu benutzt werden kann, wenn auch mit geringer Integrationstiefe. OSI selbst ist dabei nur ein Schlagwort, was nun im einzelnen für Protokolle realisierbar sind, ist ein weites Feld.

Man darf keine Wunder erwarten

Mit dem OSI-Protokoll-Stack, der zum Beispiel durch Decnet OSI für Ultrix oder VMS umgesetzt wird, bekommen die Kunden alle wichtigen Eigenschaften der OSI-Protokolle wie die Robustheit oder die Unterstützung sehr großer Netze und können gleichzeitig auf bestimmte Netzwerkdienste, die von Digital angeboten werden, zurückgreifen, zum Beispiel auf Verzeichnis- oder Time Services. Die lange unter dem Stichwort Decnet Phase V/OSI erwartete vollständige Ablösung der Decnet-Kernprotokolle durch OSI bleibt jedoch aus. Wie auch bei anderen Herstellern ist OSI neben TCP/IP und einer proprietären Architektur lediglich eine Alternative.

Fazit: Es wurden beispielhaft drei Entwicklungen herausgegriffen, die zeigen sollten, auf welche Weise Gremien und Hersteller versuchen, den gestiegenen Anforderungen und Einflußfaktoren gerecht zu werden.

Wesentlich erscheint, daß nicht die Produkte allein, sondern erst ihr intelligenter Einsatz in einem entsprechenden Umfeld den gewünschten Fortschritt vorbereiten können. Man darf auch von den Produkten keine Wunder erwarten.

Workgroup als neue Strukturzelle

Die verteilte Datenverarbeitung muß ihre Realisierung in einer geeigneten Kombination von Hardware, Betriebssystemen, Netzwerken und ihren Protokollen sowie schließlich

Anwendungssoftware finden. Es ist damit zu rechnen daß das moderne Unternehmensnetz kein zentral von einer Netzwerkarchitektur gesteuertes baumförmiges Gebilde mehr ist, sondern vielmehr eine in hohem Maße kooperative Struktur unterschiedlichster physischer und logischer Systeme. Diese Struktur orientiert sich idealerweise gleichermaßen an den Bedürfnissen der Benutzer, Betreiber und Planer und wird vor allem durch die Schlagworte "Workgroup Computing", "Rechnerebenen" und "Internetworking" gekennzeichnet.

Die Workgroup ist die neue Strukturzelle der Informationsverarbeitung und faßt die Arbeitsplätze nach Aufgaben zusammen. Workgroup-LANs sind die unterste Rechnerebene. Weitere Rechnerebenen ergeben sich gegebenenfalls durch mittlere Systeme und Hosts. Für jede Rechnerebene ist ein Netztyp optimal.

Also existieren mehrere Netze, die verbunden werden müssen. Dies ist die Aufgabe des Internetworking. Schließlich sollten möglichst wenige Abhängigkeiten zwischen technischen (Verkabelung), physischen (Ethernet, Token Ring, FDDI etc.) und logischen (Novell, TCP/IP, OSI, SNA, Decnet) Netzen bestehen, um auf Änderungen flexibel reagieren zu können.