Ultranet verweist FDDI in Ethernet-Schranken

Uni Stuttgart macht einen Vorstoß in die Gbit/s-Vernetzungsebene

25.01.1991

Das Regionale Rechenzentrum der Universität Stuttgart (RUS) konnte in Sachen Hochgeschwindigkeits-Kommunikation bereits bis in den Gbit/s-Bereich vorstoßen. Paul Christ und Roland Rühle beschreiben im folgenden Artikel heute tonangebende Standards wie das High Performance Peripheral Interface (Hippi) und geben einen Überblick über die an der badenwürttembergischen Hochschule vorzufindenden und geplanten Netzprojekte.

Neben Ethernet und Hyperchannel wurden in Stuttgart auf der LAN-Seite FDDI und Ultranet installiert. Die seit 1986 hier eingesetzte Cray 2 agiert dabei in sämtlichen Netzen als ein "Peer" und läßt sich von allen Geräten aus - ohne über einen Front-end-Rechner gehen zu müssen - direkt erreichen.

Das zusammen mit dem Unternehmen Hirschmann realisierte Ethernet - es repräsentiert die untere Geschwindigkeitsklasse - besteht bereits seit 1984, gilt als das erste kommerzielle optische 802.3-Netz weltweit und umfaßt seit langem Rechner der zur Hochschule gehörenden über 100 Institute.

FDDI repräsentiert mittlere Geschwindigkeitsklasse

Dieses Ethernet reicht von Stuttgart, Stadtmitte, bis nach Tübingen, Karlsruhe und Kaiserslautern, wobei es die Strecken des sogenannten Vorläufer-Breitbandnetzes (VBN) nutzt. Die Übermittlungsgeschwindigkeiten liegen hier bei 10 Mbit/s. Die zum Anschluß an das VBN erforderlichen Komponenten, der sogenannte E-Mux und eine Remote-Ethernet-Bridge, wurden in einem vom DFN-Verein geförderten Vorhaben am Institut für Nachrichtenübertragung beziehungsweise vom Regionalen Rechenzentrum der Uni Stuttgart (RUS) in Kooperation mit Hirschmann entwickelt. Eine weitere Ausdehnung dieses Kommunikationsverbunds mit derzeit rund 1000 Rechnern ist geplant.

Der Hyperchannel war ab Mitte der 70er Jahre das erste offene Hochgeschwindigkeitsnetz. Die in Stuttgart seit 1979 eingesetzte entsprechende Lösung läuft gegenwärtig in einer stabilen Betriebsversion, die im wesentlichen die RUS-Mainframes umfaßt; bei Filetransfers zur Cray 2 werden bis zu 12 Mbit/s erreicht.

FDDI repräsentiert in Stuttgart die mittlere Geschwindigkeitsklasse und dient für den direkten Anschluß von Workstations. An den FDDI-Ring sind neben der Cray ein Comparex-

Rechner und zwei Sun-Workstations angeschlossen. Die Host-Anschlüsse und den Übergang zu Ethernet bewerkstelligen Geräte von Network Systems. Eine Sun 4/260 schafft 12 Mbit/s beim Filetransfer von der Cray, wenn sie die Daten nicht auf den eigenen Platten speichern muß. FDDI wird in Stuttgart auch künftig wahrscheinlich nur auf der Institutsebene eingesetzt und fallweise die Rolle eines Backbones für Ethernet übernehmen - die schnellen internen Busse moderner Router mit 600 bis 800 Mbit/s realisieren wesentlich effektivere Backbone-Netze.

Das Netz der obersten Geschwindigkeitsklasse ist Ultranet, ein Produkt des Unternehmens Ultra Network Technologies. Ultranet-Knoten können mit Hilfe von schnellen Links (Übermittlungskapazität 1 Gbit/s) Netze mit verschiedensten Topologien einbinden. Als Rechneranschluß, der die größten Übermittlungsgeschwindigkeiten realisiert, bietet sich der sogenannte Hippi-Kanal an.

Diese von ANSI standardisierte Schnittstelle geht im wesentlichen auf eine Entwicklung des Forschungslabors in Los Alamas zurück, sie unterstützt Geschwindigkeiten von 800 bis 1600 Mbit/s. Hippi wurde inzwischen von Cray realisiert, viele andere Unternehmen haben Produkte auf der Basis dieser Norm bereits in petto. Das 1989 eingeführte Ultranet umfaßt derzeit an zwei Knoten die Cray 2, einen Convex-Minisupercomputer, zwei Framebuffer und Workstations von Silicon Graphics sowie Sun.

Die im Ultranet erreichten Geschwindigkeiten stechen in verschiedenster Weise hervor. Spektakulär ist die zwischen Cray-2-Memory und Framebuffer gemessene Übertragungsleistung von 747 Mbit/s, die einen Film aus Pixelbildern ermöglicht. In der Praxis bedeutungsvoller ist jedoch der Zugriff mit 114 Mbit/s von der Graphics-Workstation auf die Platten der Cray 2 oder einen entsprechend schnellen Fileservers am Ultranet. Eine solche Workstation kann auch den Übergang zwischen Instituts- oder Fakultätsnetz und einem Backbone auf Ultranet-Basis bilden. Derartige Konzepte verfolgt in Stuttgart zum Beispiel die Fakultät für Energietechnik.

TCP/IP-0SI-Migration im Rahmen von Belwue

Das Stuttgarter Netz ist Teil des Landesforschungsnetzes "Belwue" (Baden-Württembergs extended LAN), das die LANs der Landeshochschulen über 64-Kbit/s-Standleitungen beziehungsweise über Strecken des Vorläufer-Breitbandnetzes miteinander verbindet. Die Schnittstelle zu den Teilnehmern bilden Router von Cisco. Diese Router werden von der in Stuttgart ansässigen Belwue-Koordination mit SNMP, dem Simple Network Management Protocol, verwaltet.

Belwue verfolgt zusammen mit dem Deutschen Forschungsnetz eine TCP/IP-OSI-Migrationsstrategie mit Anschlüssen an das DFN-Wissenschaftsnetz WIN. In Stuttgart wurde im VBN-Bereich zur Nutzung eines möglichst hohen Anteils der Leitungskapazität nach dem E-Mux ein F-Mux realisiert, der den physikalischen FDDI-Datenstrom vom und zum VBN liefert. Sein Debut feierte der F-Mux auf der CeBIT '90, wo eine Verbindung zum Alfred-Wegener-Institut in Bremerhaven aufgebaut wurde.

Die Experimente zur Verbindung von FDDI-Ringen an das VBN laufen weiter. Es ist geplant, potentiellen Anwendern wie zum Beispiel der Druckindustrie oder dem Medizinbereich bereits 1991 entsprechende Entwicklungen zur Verfügung zu stellen.

Hochgeschwindigkeitsnetze mit bis zu fast einem Gbit/s sind State-of-the-Art in Supercomputerzentren. Im Rahmen weiterer Vorhaben kommt es nun darauf an, schnelle Verbindungsnetze in Form von Crossbar-Switches an Stelle des einfachen Gbit/s-Backplane-Busses zum Beispiel der Ultranet-Knoten zu entwickeln, die es gestatten, Hippi-Geräte zu verbinden.

FDDI hat in dieser Leistungsklasse keine Bedeutung, seine Eignung als Backbone für andere 802.3-Netze ist in dieser Umgebung ebenfalls begrenzt. Bei einer günstigen Entwicklung der Anschlußkosten wird FDDI in den 90er Jahren für leistungsfähige Workstations die Rolle von Ethernet übernehmen.

Zwischenspeicherung an schnellen Fileservern

Unterschiede in den Netz- und Verarbeitungsgeschwindigkeiten bedingen die Notwendigkeit der Zwischenspeicherung großer Datenmengen auf schnellen Fileservern im Netz. Diese Fileserver halten für Supercomputer und Visualisierungs-Workstations gemeinsame lokale Files vor, die für verteilte Rechenanwendungen gebraucht werden. Die benötigten Datenmengen und Geschwindigkeiten erfordern dabei von einem Fileserver sowohl zu den Platten als auch im Netz nach Erfahrungen der Stuttgarter mindestens eine Übertragungsleistung von 20 bis 40 MB/s. In einer solchen Umgebung greifen dann die Workstations auf Fileserver-Platten schneller zu als auf die eigenen. Paradoxerweise wird aber derzeit eine solche Fileserver-Leistung nur von einem Supercomputer erbracht. Die geeignete technische und verteilte Plazierung von Fileservern - inklusive der Backup- und Archivierungsfunktionen - ist eine der Herausforderungen der 90er Jahre beim Betrieb von Superrechnern.

Bei WANs stehen Planungen für Pilotversuche mit Metropolitan Area Networks auf der Basis von 802.6 auf dem Programm, so zum Beispiel in München und Stuttgart. Die hier verwendete SMDS-Technik konkurriert dabei mit Frame-Relay-Vorhaben.

Im Protokoll-Bereich schließlich deutet sich innerhalb der nächsten zwei Jahre eine Revolution an: Workstations, die teilweise schon heute mit Video-Chips ausgerüstet sind, benötigen Protokolle mit Eigenschaften wie "hoher Durchsatz", "geringe Verzögerung", "sicheres Multicast", "wählbarer Fehlerkorrektur-Dienst" oder "Quality of Management". Die Normierungen auf diesen Gebieten wurden von der ANSI bereits in Angriff genommen. Anfang 1992 sollen erste Entwürfe, die später auch in die ISO Eingang finden, vorliegen. Die den digitalen Videochips selbst zugrunde liegenden Spezifikationen wie JPEG (Joint Photographics Experts Group) und MPEG (Motion Picture Group) werden dabei von ANSI ISO und CCITT unterstützt. Europa scheint hier - wie bei den TCP/IP-Unix-Workstations - keine Rolle zu spielen. Es zeichnet sich vielmehr ab, daß der Weg zur HDTV-Einführung über den US-dominierten Workstation-Markt führen wird. Das ausgedehnte Stuttgarter Hochgeschwindigkeitsnetz könnte dann zu einem Pionierfeld für neuartige Multimedia-Anwendungen werden.

Visualisierung entscheidet über Netzgeschwindigkeit

Die Anforderungen an die Übertragungskapazität von Rechnernetzen lassen sich gut am Beispiel der Simulation komplexen technischer Systeme verdeutlichen: Während die Eingabe in Simulationsläufe vom Datenvolumen her im allgemeinen unkritisch ist, lassen sich die oft großen Ergebnisdatenmengen nur durch Visualisierung für den Wissenschaftler interpretierbar und begreifbar machen. Die Anforderungen an die Rechnernetze hängen dabei stark von der Aufgabenteilung zwischen Supercomputer und Visualisierungsart sowie der zu übertragenden Information ab.

In Stuttgart wurden dazu im wesentlichen drei Anwendungsszenarien erarbeitet. Die drei notwendigen Programmkomponenten - Rechenprogramm, Grafikprogramm und Standard-Grafik-Bibliothek können insgesamt auf dem Supercomputer liegen - die Workstation erhält dann die von der Bibliothek erzeugten Pixel, wirkt also nur als Framebuffer.

Liegt dagegen die Bibliothek, zum Beispiel Phigs+, auf der Workstation, laufen über das Netz vom Grafikprogramm erzeugte standardisierte grafische Objekte, die auf der Workstation visualisiert werden. Führt, wie im dritten Fall, der Supercomputer nur das Rechenprogramm aus, sendet dieses interpretierbare Ergebnisdaten über das Netz an Grafikprogramm und nachgeschaltete Bibliothek auf der Workstation. In Stuttgart wurde für diese Verteilungsszenarien ein Remote Procedure Call, der DFN-RPC, in einem vom DFN-Verein geförderten Vorhaben entwickelt.

Für die letzten beiden Szenarien sind oft Übertragungsgeschwindigkeiten von 64 Kbit/s zwischen Supercomputer und Workstation ausreichend; hier wird in Stuttgart seit langem zum Beispiel auch Schmalband-ISDN mit großem Erfolg verwendet. Auf eine Übertragungsleistung von 1 Mbit/s muß man zurückgreifen, um zum Beispiel interaktiv in ein Strömungsfeld eingebrachte Sägespäne realistisch "über den Bildschirm wirbeln zu lassen".

Informationsverlust oft nicht tragbar

Generell sind bei diesen Szenarien natürlich die Anforderungen an die Übertragungsraten im Netz direkt abhängig von der in der Zeiteinheit produzierten und zu visualisierenden Ergebnisdatenmenge. Sollen schließlich die im ersten Szenario zu übermittelnden Pixel-Bilder als Film auf einem Framebuffer ablaufen, müssen dafür bis zu 800 Mbit/s über das Netz transportiert werden. Durch Datenkompression lassen sich Reduktionsfaktoren von zwei bis drei ohne Informationsverlust und bis zu mehr als 100 im Verlustfall erreichen. Dabei ist aber im technisch-wissenschaftlichen Bereich ein Informationsverlust oft nicht tragbar.

Bei den bislang geschilderten einzelnen Anwendungen gilt es zudem in bezug auf die Anforderungen an Rechennetze noch zu berücksichtigen, daß auch die schnellsten der heutigen Supercomputer meistens nur in trivialen Fällen in der Lage sind, eine Online-Simulation zu berechnen.

Das Dreieck Rechnung - Übertragung - Visualisierung muß daher durch eine Speicherkomponente zur Zwischenlagerung von Ergebnisdaten im Netz zu einem Tetraeder ergänzt werden.