Verteilte Systeme lassen sich gut mit TCP/IP realisieren Unix-Server haben im Netz den Bonus der Flexibilitaet

20.05.1994

Von Michele Siegler und Charly Puetzfeld

TCP/IP erlebt jetzt einen enormen Aufschwung, fuer die Zukunft wird eine Migration zu OSI-Protokollen erwartet. Mit dem Transport Level Interface (TLI) steht bereits eine Schnittstelle fuer die Kopplung zur Verfuegung.

TCP/IP bezeichnet generell alles, was mit der Protokollfamilie des Department of Defence (DoD) zu tun hat: Protokolle, Applikationen und manchmal Netzmedien. Genauer ist der Ausdruck Internet- Technologie. Ein Netz, das Internet-Technologie verwendet, wird Internet genannt. Die Internet-Adresse (4 Byte) wird ueber das Address Resolution Protocol (ARP) in eine weltweit eindeutige Ethernet-Adresse (6 Byte) umgesetzt und umgekehrt. Die Uebertragung erfolgt nach dem CSMA/CD-Verfahren. Mit der Bekanntgabe der Netzadresse ist eine hierarchiefreie Peer-to-peer-Kommunikation moeglich. Hierarchien lassen sich ueber verschiedene Netzklassen (A, B, C plus Subnetze) aufbauen.

TCP/IP ist kein OSI-Protokoll, sondern ein De-facto-Standard. Deshalb sind vom Mainframe bis zum PC entsprechende Connectivity- Produkte verfuegbar. Selbst Novell bietet mittlerweile eine Netware/IP-Loesung an, die es ermoeglicht, direkt auf TCP/IP-Basis zu arbeiten.

Einfache Kommunikation durch Standardprodukte

Um auch von der Unix-Seite aus mit Nicht-Unix-Systemen kommunizieren zu koennen, existieren bereits Implementierungen von IPX/SPX fuer die direkte Kopplung mit Novell oder auch dem LAN Manager fuer OS/2.

Mit TCP/IP sind meist Anwendungen zur Kommunikation beziehungsweise zum Datenaustausch vorhanden. Durch eine Terminalemulation (telnet) laesst sich eine Online-Verbindung (login) zu einem anderen Rechner aufbauen. Genuegt der reine Datentransfer, so steht mit dem File Transfer Protokoll (ftp) eine Moeglichkeit fuer Down- und Upload zur Verfuegung. Die Zugangskontrolle zum System wird ueber eine Benutzerkennung mit Passwort realisiert. Ausserdem schaffen Standard-Unix-Produkte wie E-Mail (mail, news) oder Unix-to-Unix-Copy (uucp) die Voraussetzung fuer eine einfache Kommunikation oder beispielsweise die Fernwartung der Software.

Analog zu den lokalen Standard-Unix-Tools wie cp, login, who, wall und uptime existieren auf nahezu allen Unix-Derivaten die entsprechenden Remote-Versionen. Dadurch ist das Arbeiten mit entfernten Systemen genauso einfach wie die Benutzung des lokalen Systems, nur dass teilweise der Knotenname mit angegeben werden muss. Fuer den Datentransfer kann man damit auf ftp verzichten, da mit rcp ein einfach zu bedienender Ersatz existiert.

Durch die Moeglichkeiten zur Vernetzung wurden Unix-Systeme schon sehr frueh als Druck-Server fuer die teuren Plotter, Hochleistungs- oder Farbdrucker eingesetzt. So ist die Peripherie fuer alle Benutzer zugaenglich und wird wesentlich besser ausgelastet. Die Druck-Scheduler und Spooler uebernehmen die Aufgaben des lokalen oder entfernten (Line Printer Daemon = lpd) Druckens nebenbei, ein Unix-System ist dadurch nicht ausgelastet.

Um in einer heterogenen System- und Netzumgebung die gleichen Drucker benutzen zu koennen, empfiehlt es sich, Ethernet-Print- Server (intelligenter Controller zum Beispiel mit telnet/ftp) zu verwenden, die multiprotokollfaehig sind. Auf diese Weise lassen sich die Geraete frei im Netz positionieren. Auf den (PC-)Client- Systemen wird die Drucksteuerung ueber die entsprechenden Dienstprogramme benutzertransparent eingebunden. Netzadapter fuer diverse Drucker sind zu teuer und zu unflexibel, was beispielsweise Modellwechsel und die Unterstuetzung von Multiprotokollen angeht.

Mit dem Network File System (NFS von Sun) existiert ein De-facto- Standard fuer verteilte Dateisysteme auf TCP/IP-(UDP-)Basis. Ein Server hat dadurch die Moeglichkeit, ein File-System oder Dateiverzeichnis fuer das Netz zu exportieren, das von einem autorisierten Client wiederum ueber NFS importiert wird. Fuer den Benutzer erfolgen die Zugriffe vollkommen transparent. Mit NFS ist man damit jederzeit in der Lage, den lokalen Plattenspeicher zu erweitern beziehungsweise die Datensicherung ueber NFS wieder zu zentralisieren.

Durch die Vernetzungsmoeglichkeiten werden die klassischen, zentralen Datenbanksysteme schon teilweise durch entsprechende netzfaehige Versionen ergaenzt. Sehr unterschiedlich ist jedoch momentan der Verteilungsgrad. Einfache Loesungen beschraenken sich auf die Verlagerung des Front-ends auf einen CPU-Client wie DOS/MS-Windows mit TCP/IP. Damit wird zumindest ein Teil der Last auf das lokale System verlagert, weil nur die Transaktionen ueber das Netz zur Datenbank und zurueck gesendet werden.

Verteilte Daten erhoehen den Administrationsaufwand

Wesentlich besser ist eine Verteilung der Daten oder Tabellen im Netz. Die Administration gestaltet sich dadurch jedoch ungleich schwieriger; genauso verhaelt es sich mit der Beruecksichtigung von Sicherheitsaspekten. Trotzdem ist der Trend zu verteilten Loesungen unverkennbar und durch Produkte wie Windows-4GL (Ingres), SQL*Net (Oracle) oder Gupta SQL fuer Windows bereits Realitaet. Unix wird hierbei auch in Zukunft als leistungsstarker Back-end-Server fungieren. Durch die von ihm angebotenen Loesungen sind nun auch grafische, datenbankunabhaengige Front-ends realisierbar, wobei die neuen grafischen Oberflaechen jedoch eine betraechtliche Systemlast auf dem Client produzieren.

Drucken im Netz, gemeinsames Nutzen von Platten - diese Features sind bereits State of the art. Schwieriger wird es bei einer vollstaendigen Verteilung der Systeme - seien es Betriebs- oder Anwendungssysteme -, die zu einer gleichmaessig hohen Lastverteilung fuehren soll. Mit dem X-Window-System, den Remote Procedure Calls (RPCs) und dem Distributed Computing Environment (DCE von der OSF) sind nun Mechanismen fuer eine weitere Verteilung vorhanden.

Remote Procedure Calls machen Clients vielseitig

Das X-Window-System ist eine Server-basierte Vollgrafikoberflaeche, bei der die Anwendung (X-Client) auf einem CPU-Server ablaufen kann, waehrend sich das Grafiksystem (X-Server) auf dem CPU-Client (leistungsschwaechere Workstation/PC oder X-Terminal) befindet. Die Kommunikation zwischen X-Client und X-Server regelt ein X- Protokoll (lokal ueber IPC, remote ueber TCP). Dadurch lassen sich die Grafikhardware (I/O) und die geraeteunabhaengige, rechenintensive Applikation transparent entkoppeln.

Die RPCs sind TCP/IP-basierte Mechanismen, die in Form einer Bibliothek vorliegen. Damit lassen sich verteilte Clients gestalten, die auch mit verschiedenen Datenformaten zurechtkommen.

Da DCE nicht auf Unix beschraenkt ist, kann es fuer die Kommunikation ueber Betriebssystem-Grenzen hinweg eingesetzt werden.

DCE verfuegt nicht nur ueber eine RPC-Bibliothek, sondern auch ueber zusaetzliche Funktionen wie Sicherheitsmechanismen, ein Distributed File System (DFS) und Erweiterungen im Netzbereich.

Verteilte Hardwareressourcen und Applikationen gestalten die Systemadministration schwierig. Durch die wiedererreichte Benutzergemeinschaft (Multiuser) ueber das Netz ist die Zugangskontrolle und die Autorisation komplexer. Trotz Verteilung sollte der Benutzer nach Moeglichkeit wie gewohnt weiterarbeiten koennen. Die Anbindung der Knoten fuer eine Peer-to-peer- Kommunikation ist relativ einfach in wenigen Minuten erledigt. Bei Windows NT laesst sich das Prozedere sogar mit ein paar Mausklicks bewerkstelligen.

Komplexer wird die Angelegenheit allerdings, wenn jeder Benutzer von einem beliebigen Arbeitsplatz aus auf seine Res-sourcen zugreifen moechte. In diesem Fall muessen die Informationen ueber die Netzknoten und Benutzer ueberall im Netz verfuegbar sein. Fuer TCP/IP wurden dazu Domain Name Services (DNS) und Network Information Services (NIS, ehemals YP = Yellow Pages) geschaffen.

Mit DNS ist es moeglich, einen Domain-Name-Server einzurichten, der alle Knoten mit zugehoeriger IP-Adresse kennt und auf dem Netzwerk zur Verfuegung stellt.

Bei NIS verhaelt es sich aehnlich, nur dass hier die Benutzerinformationen verwaltet werden. Die Administration beschraenkt sich in diesen beiden Faellen auf die Wartung der zentralen Server-Tabellen und die systeminitiale Einrichtung der Dienste. Ist nicht nur die Autorisation beziehungsweise die Zugangskontrolle zu den Systemen wichtig, sondern auch Fehlererkennung, Accounting, Kommunikationsstatistiken, dann existiert mit dem Simple Network Management Protokoll (SNMP) ein De-facto-Standard fuer diese Aufgaben.

In Zukunft werden mehrere integrierte, grafisch orientierte Management-Werkzeuge auf den Markt kommen. Aufbauend auf SNMP bietet zum Beispiel Sun mit dem Sunnet Manager ein solches Tool an.

Von der Open Software Foundation (OSF) existiert bereits ein Konzept fuer ein Distributed Management Environment (DME). Mit dem Tivoli Management Environment (TME von Tivoli Systems) gibt es schon erste Produkte, die auf DME basieren.

Aufgrund seiner Multitasking-, Multiuser- und Vernetzungsmoeglichkeiten (Interoperability, Connectivity) wird Unix als leistungsfaehiges Server-System eingesetzt. Die Einsatzbreite (Scalability) und Herstellerunabhaengigkeit (Portability) gestaltet den Unternehmen ein entsprechendes Rightsizing.

Mit der Beruecksichtigung von Sicherheitsaspekten in den modernen Unix-Derivaten stellt ein Einsatz in verteilten Systemen kein Risiko mehr dar. Als offenes System laesst sich Unix auch in Zukunft ueber die Integrationsfaehigkeit (Integrability) in bereits bestehende Netzumgebungen einbinden.

Durch seine Einsatzbandbreite eignet sich Unix auch hervorragend als Gateway zwischen verschiedenen Netzen. Damit ist es ausserdem moeglich, auf das Internet zuzugreifen, den groessten Rechnerverbund von Unix-Systemen mit IP-Protokoll. Ueber das Internet laesst sich jedes Unternehmen mit einem entsprechenden Zugang erreichen. Als weitere Dienste sind Newsgroups verfuegbar, ueber die Software und Informationen angeboten werden. Viele Firmen stellen ihren Kunden auf diese Weise kostenlose Software (Treiber, Bug-Fixes etc.) zur Verfuegung.