DOS setzt der Performance im LAN Grenzen

Beim Ausbau des PC-Netzes kommt es auf den Server an

17.05.1991

Der Bedarf an Datenverarbeitung in Unternehmen steigt ständig. Dies gilt insbesondere für lokale Netze, die auf reiner PC-Basis schnell an ihre Grenzen stoßen. Erweiterungen sind die Folge. Möglichkeiten des kostengünstigen Ausbaus schildert Reinhard Herrmann*.

Die angestrebte Vollendung der DV-Infrastruktur beginnt zumeist mit kleinen Schritten. Nach dem insularen Dasein des PCs als MS-DOS-Arbeitsmittel sucht der Anwender den Kontakt zu anderen PCs im Haus. Zugriff auf unternehmensweite Infos oder Ressourcen-Sharing von Drucker und Platte sowie zusätzliche Dienste wie E-Mail sind das Ziel.

Zur PC-PC-Vernetzung als LAN-Einstieg bieten sich diverse Möglichkeiten an: Novell Netware, LAN Manager oder Banyan Vines gelten als typische Vertreter dieser Grundvernetzung. Ihnen gemeinsam ist die Begrenzung auf MS-DOS und darin die Bereitstellung von Features wie Printer- und Disk-Sharing, der E-Mail-Dienste und die gemeinsame Verwaltung von Benutzerdaten. In letzter Zeit wird allerdings auch der Übergang in andere Welten vereinzelt angeboten.

Der Wunsch noch mehr Komfort

Das PC-Netz ist also durchaus als Funktionserweiterung zu sehen - trotzdem werden nach kurzer Zeit häufig weitere, komfortablere Features gewünscht. Es fehlen allzu häufig Zugriff auf heterogene Rechnerwelten, die Öffnung des PC-LAN nach außen, geschickte Lastverteilung auf die CPUs, Applikationserweiterung und automatische Steuerung derselben sowie Automatik-Backup etc.

Die Ausweitung und Verfeinerung des LANs ist angesagt. Von der Netztechnologie her gibt es - abgesehen von Lizenzfragen - eigentlich keine PC-Mengenbegrenzung bei einer solchen PC-PC-Connection, da sich die Netzwerkarbeit hier nur auf Task-Basis vollzieht.

Die Netzerweiterung in andere Welten und mit anderem Konzept hingegen berührt verschiedene Bereiche aus Administration und Technik, die es zu erörtern gilt. Für sie gilt die Forderung des reibungslosen Überganges im täglichen Betrieb und auch des Investitionschutzes für das vorhandene System.

Basisüberlegung ist, daß an Stelle vormals "teilender PC-Dienstleistung zusammengefaßt angeboten und verwaltet werden muß. Als erster Schritt zu neuen Ufern ist die Zentralisierung der Dienste angesagt und damit beginnt die Qual der Wahl. Der Server steht zur Diskussion. Rein theoretisch wäre die erste Möglichkeit, einen PC (eventuell einen 486er) als Server in das LAN einzubinden und ihn mit Service-Funktionalitäten vollzupacken.

Der kritische PC-Anwender jedoch stellt bald fest, daß das auch seine Grenzen hat - was CPU und Leistung anbelangt, aber auch was Speicher- und Zugriffstechnik sowie Kapazität betrifft. Auch bei der Frage grafischer Benutzeroberflächen und Multitasking türmen sich derzeit noch schnell Barrieren auf.

Zudem besteht nicht selten eine Struktur im Unternehmen die es sinnvoll erscheinen läßt, DOS-PCs und Nicht-DOS-Rechner in ein Netz zu integrieren. Nun gibt es wiederum durchaus verschiedene Varianten, Implementierungen der PC-PC-Systeme in andere Welten aufzubauen. Die Industrie bietet Lösungen an, die es erlauben, mit dem PC ohne Einschränkung auf Großrechner zuzugreifen - am besten via schnellem Server, der als zentraler Diensteanbieter und Verwalter nicht nur das aktuelle PC-Netzwerk funktional aufpeppt, sondern auch gleich das Tor zur großen Welt aufstößt.

Die Investition muß sich allerdings tragen, der Server steht nun in der Pflicht. Hier wird schnell deutlich, warum sich ein weiterer PC an dieser Stelle, beispielsweise ein 486er, nur eingeschränkt eignet und nicht als optimale Lösung anzusehen ist.

Ein typischer 486er ist so gebaut, daß er über den PC-Bus, entweder EISA oder AT, seine Netzwerkdienste zuweist - er muß also den Bus benutzen, um Netzwerkdaten zu holen oder andere Rechnerwelten ansprechen zu können. Es gibt aber nur sehr wenige PCs, bei denen zur Steigerung dieser Leistungen der Ethernet-Controller direkt auf der Platine sitzt. Von daher ist die Performance begrenzt, es entsteht beim simultanen Zugriff mehrerer PCs schnell ein Bottleneck. Zudem sind PCs dieser Bauart stark Interrupt-getrieben; die Netzwerkleistung eines PCs ist infolgedessen bei weitem nicht so hoch, wie etwa bei einem Unix-Rechner, dessen Geschwindigkeit derzeit kein PC erzielt.

Die Leistung resultiert aus der Verquickung von Ethernet-Controller und Motherboard. Die Systeme sind außerdem mit einem ausgefeilteren Direct Memory Access (DMA) ausgestattet: Daten können. unabhängig vom Prozessor und der Belastung in den Hauptspeicher transferiert und von der CPU bei Bedarf abgeholt werden. Diese Technologie erlaubt, Transferraten bis hin zu 700 KB zu erzielen, mehr also als im gängigen PC-Bereich. Zudem stehen in einer solchen Workstation, etwa von DEC, HP oder Sun, Plattenkapazitäten im GB-Bereich zur Verfügung, die angeschlossene PCs ebenfalls nutzen können.

Die Kapazität reicht zudem aus, alle DOS-Applikationen auf dem Server zu installieren, um sie über den PC zu laden und dort ablaufen zu lassen. Die doppelte Geschwindigkeit des Ethernet erlaubt einen schnelleren Zugriff über das Netzwerk als ihn lokale SCSI-Platten zu leisten vermögen.

Der typische Fall für einen Server-Einsatz bei Erweiterung des Netzes taucht dort auf, wo in einer PC-Landschaft einfach nicht mehr genügend Rechen oder Plattenkapazität zur Verfügung steht oder bestimmte Dienste für das PC-Netz zu zentralisieren sind: Es wird schlicht zu langsam.

Die Planung für übermorgen ist dabei sehr schwierig. Die heute angebotene Technik macht Planungszeiträume von mehr als einem Jahr fast hinfällig. Die Lebenszyklen der Produkte werden immer länger bei ausgeteilter Leistung. Große Bedeutung kommt deshalb der Organisation und dem Design des Netzes zu.

So ist es bei der Umgestaltung sinnvoll, Workgroups eines Unternehmens, die eng verflochten sind, auf einzelne Ethernet. Segmente zusammenzulegen und den Workgroup-Server mitzuplanen. Für kleine Ausbaustufen ist die Erweiterung der Basis-Netzgruppe um zusätzliche PCs und anwendungsbezogene kleine Server schnell realisiert, für größere Projekte steht der Verbindung dieser Server untereinander über ein separates Ethernet-Segment nichts mehr im Weg. Die Server werden über ein separates Backbone-Ethernet gekoppelt.

Das Design erlaubt so, beliebig viele Server mit angeschlossenen PC-Netzen anzukoppeln und gleichzeitig ohne Probleme innerhalb eines "Unter-Netzes" auch die Zahl der PC-Stationen horizontal aufzustocken ohne das Netz-Design extra ändern zu müssen.

Reicht auch dies eines Tages nicht mehr aus, bleibt die Möglichkeit, größere Systeme anstelle der Workgroup-Server einzubinden oder im Hintergrund in neuer Ebene den Server-Server einzufahren - in Größenklassen auch bis hin zu Mainframes, der allen Workgroups zur Verfügung steht. Die zweite vertikale Ebene kann beispielsweise, wenn die Leistung des Netzwerkes immer noch nicht reicht, über FDDI mit 100 Mbit gekoppelt werden.

Eine solche Struktur Öffnet zudem auch das Tor zur Außenwelt - in das Backbone (die Server-Kopplung) wird ein Kommunikationsrechner gestellt, der über X.25, ISDN oder Standleitung die Kommunikation nach außen realisiert.

Auch diese Rechner wieder um können bei Geographisch sehr verteilten Anwendungen untereinander in Verbindung treten; "geschlossene Benutzergruppe" sei als Schlagwort zum Thema Sicherheit genannt.

Eine zusätzliche Variante bei geographisch stark verteilten Arbeitsgruppen bietet die Koppelung der PCs über ISDN hin zu einem Unix-Server, der dann mit S2M-ISDN-Interface mehrere dieser Koppelungen parallel bedienen kann.

Die Wahl des Servers richtet sich ganz generell nach der Anwendung, die gefahren werden soll, und nach der Art des existierenden PC-Netzes. Ist der LAN Manager im Einsatz, muß der Server dieses Protokoll verstehen - für fast alle Unix-Server stellt dies kein Problem dar. Sind die PCs über ONC (Open Networking Computing) oder NFS vernetzt, kann aus einer Zahl von 90 Implementierungen der geeignete Server ausgewählt werden. Übergänge von Netware zu NFS existieren ebenfalls; bei Banyan Vines wird, die Suche nach dem leistungsstarken Server eher schwierig.

Zurück zum Diensterechner in Reinkultur, dem Unix-Server. Er bietet gute Chancen, die ganze Connectivity der Unix-Systeme in andere Welten auszunutzen: als Gateway zu X.25, oder OSI oder SNA 3270. Geschickte Softwarelösungen und Koppelungen, beispielsweise an den Hauptkanal einer IBM zum High-Speed-Datentransfer, laufen transparent für den PC-Benutzer. Bei der Server-Auswahl ist darauf zu achten, daß das angepeilte System die vorhandene Umgebung, die im bisherigen PC-PC-Netzwerk gefahren wird, tatsächlich unterstützt - also den LAN Manager im Einsatzfall genauso wie Portable Netware von Novell.

Der nächste Punkt, der bei der Server-Wahl immer wieder zu Diskussionen Anlaß gibt, befaßt sich mit der Migration in andere Welten. Offenheit des Systems ist beim Server-Design ein Schlüsselelement. Er muß in existierende Welten integrierbar sein und in Richtung offene Standards zielen.

Der Nachweis ist seitens des Anbieters zu erbringen - am besten via Referenzen, bei denen die versprochenen Leistungsmerkmale abzufragen sind. Von großer Wichtigkeit sind dabei in Sachen Software Fragen des Releases - beispielsweise bei Emulationen oder Kommunikation. Hier auf den neuesten Stand der Technik zu beharren, spart Geld und Ärger.

Generell ist zur Software zu sagen: Grundsätzlich sollten Printer Sharing, Disk Sharing, Benutzerdatenverwaltung und E-Mail sowie ein Backup-Feature zur schnellen Überspielung der Daten auf ein externes Sicherungssystem verfügbar sein. Weiteres Ressourcen-Sharing (Plotter, CD-ROM etc.) richtet sich nach der Anwendung.

Ein Vorteil für die Zukunft: Das Netz-Betriebssystem sollte in ein Netz-Management-System integrierbar sein, das auch PCs mit verwalten kann. Zwei Protokolle bieten sich an, OSI mit CMIS/CMIP (Common Management Information Service/ -Protocol) oder SNMP (Simple Network Management Protocol), wobei SNMP laut Markterhebungen bisher größere Verbreitung erfahren hat.

Bei der Erweiterung eines Netzes ist allgemein von Wichtigkeit, daß bestimmte Datenbank-Management-Systeme wie Informix, Oracle, Unify, Sybase, Ingres oder andere auf dem Diensterechner ablauffähig sind. Alle diese Systeme bieten eine SQL-Schnittstelle und unterscheiden sich eigentlich nur durch Raffinessen. Zudem laufen sie auf praktisch allen Unix-Maschinen.

Der Transfer der Daten von der PC-DB auf die des Servers wird im Normalfall im laufenden Betrieb durchgeführt. Aus Gründen der Sicherheit empfiehlt sich für eine geraume Zeit eine parallele Haltung der Datenbankinhalte. Es besteht die Möglichkeit, PC-Datenbanken 1-1 auf Unix-Server zu übernehmen. Bei Sun beispielsweise gilt dies für Dbase IV.

Hier zeigt sich auch ein allgemeiner Trend im Softwarebusineß: Applikationen wie Wordperfect, Lotus 1-2-3, Autocad und Wingz als Spreadsheet laufen ebenfalls 141 - datenkompatibel - auf Sun-Systemen. Der Trend, bekannte PC-Anwendungen auch auf Unix-basierte Systeme zu portieren, resultiert daraus, daß der Unix-Markt stark wächst.