LANPC-Integration

Unix- und PC-LANs wachsen in den 90ern zusammen

18.05.1990

Jahrelang wurden Unix-Systeme und PC-Netze als Konkurrenten im Rennen um die beste offene EDV-Lösung gehandelt. Heute zeichnet sich ab, daß ein Mix aus PCs und Unix-Systemen die komplexen Aufgabenstellungen der EDV kommenden Jahren lösen wird.

Als 1981 der erste IBM-PC auf den Markt kam, stieß er in ein Vakuum vor. Die Technologie für preiswerte Massen-PCs stand zur Verfügung, und der Bedarf für Systeme, die der Steigerung der persönlichen Produktivität dienen, war vorhanden. Dank ihrer Marktmacht und der leichten Nachbaubarkeit ihres Erstlingswerks gelang es der IBM, mit ihrem PC einen Industriestandard zu etablieren, auf dessen Plattform ein Softwaremarkt wachsen konnte.

Software-Angebot, Verbreitungszahl und Preisverfall in wechselseitiger Rückkopplung lösten einen Boom aus, der diese PCs auf Millionen von Schreibtische brachte. Zur weiteren Steigerung der persönlichen Produktivität bedurfte es jedoch bald des Zugriffs auf Daten jenseits des eigenen Rechners.

Ob es um den Zugriff auf öffentliche Netze (WAN), den zentralen Großrechner oder die PC-Daten des Kollegen über ein lokales Netz (LAN) ging, Kommunikation zwecks Datenaustausch wurde zum zentralen Thema. Da dem PC-Betriebssystem MS-DOS sämtliche Eigenschaften wie Multitasking oder Dateiattribute fehlten, die es zu einem Träger für Serversoftware qualifiziert hätten, entwickelte die Firma Novell kurzerhand ein neues Betriebssystem mit integrierter Serversoftware.

Ihr Netware genanntes Produkt wurde schnell zum Marktrenner, erlaubte es doch durch den Zugriff auf gemeinsame Ressourcen - wie Drucker, Dateien oder Kommunikationsadapter -, einfache PC-Arbeitsplätze zu einem leistungsfähigeren PC-System zu verbinden. Damit erwies sich der Einsatz von LANs beispielsweise in der Office-Automation oder der Buchhaltung als preiswerte Alternative mit funktionalem Gewinn zu klassischen Minicomputer-Lösungen.

Heute haben sich PC-LANs auf breiter Front durchgesetzt Ihre Einsatzbereiche begrenzen nur noch die Leistungsschranken der PC-Architektur und der PC-Betriebssysteme. Mit Fokus auf den LAN-Einsatz werden eben diese Grenzen zur Zeit weiter nach vorn geschoben. So steht mit dem EISA-Bus ein abwärtskompatibler 32-Bit-Bus als neuer Standard und legitimer Nachfolger des AT-Busses ins Haus. Gerade für Server bietet dieser Bus den dringend benötigten höheren Durchsatz zu Netzwerk- und Platten-Controllern. Die neue Prozessorgeneration 80386 und 80486 bietet nicht nur signifikant höhere Rechenleistung, sondern mit der 32-Bit- Befehlssatz-Plattform ein Fundament, das kompatibel auch in den nächsten Prozessorgenerationen beibehalten werden soll.

Als Nachfolgebetriebssystem zu MS-DOS ermöglicht OS/2 in der Version 2.0 Entwicklung und Betrieb dieser neuen Generation von PC-Software. Ganz im Gegensatz zu MS-DOS wurde OS/2 auch bewußt als Träger für Serversoftware konzipiert. So ist es dann auch nicht verwunderlich, daß Microsoft neben OS/2 mit dem LAN Manager auch direkt die passende Serversoftware anbietet. Vor diesem strategischen Hintergrund stellt der LAN Manager endlich ein Pendant zu Netware von Novell, deren Netware 386 jetzt ebenso auf die 32-Bit-Plattform abgestimmt ist.

Im Mittelpunkt beider Netzwerkprodukte steht die Unterstützung verteilter Datenverarbeitung nach dem Client-Server-Modell. In diesem Modell fordert ein Benutzer-PC (Client) eine Dienstleistung von einem zentralen PC (Server). Beispielsweise benötigt ein Programm des Benutzer-PCs bestimmte Datensätze, die in einer Datenbank des zentralen PCs abgelegt sind. Nach dem Client-Server-Modell formuliert das Programm des Benutzer-PCs eine Anfrage an die Datenbank, die über das Netz an den zentralen PC geschickt wird. Der zentrale PC sucht die angefragten Datensätze in der Datenbank und schickt sie dem Benutzer-PC als Antwort über das Netz. Die Möglichkeit frei ladbarer Serverprozesse, auf die nach dem Client-Server-Modell zugegriffen werden kann, charakterisiert den Entwicklungssprung vom Ressourcen-Sharing zum Dienste-Sharing (Datenbank, Kommunikationsdienste etc.) in PC Netzwerken.

Das Volumen und die zunehmende Standardisierung des PC-Marktes werden im Sinne der "Economy of Scale" im Laufe der 90er Jahre dafür sorgen, daß PCs und PC-LANs alle anderen Systeme gleicher Leistung verdrängen Dies ist ein langfristiger Vorgang, da an vielen Stellen die Substitution existierender Hardware -und Software-Infrastrukturen erst langfristig gesamtwirtschaftlich vertretbar ist.

Aber es gibt auch Grenzen, und zwar genau dort, wo die PC-Architektur die Eckwerte ihrer Leistungsfähigkeit erreicht. Ein erster Punkt ist sicherlich die begrenzte Skalierbarkeit der Leistung von PCs. Grund ist die Bindung des PCs an die i80x86-Prozessorlinie. Zwar schafft diese Bindung eine Binärkompatibilität zwischen Millionen Systemen und als Resultat ein Software-Angebot, das Größenordnungen über dem anderer Systemklassen liegt. Doch gleichzeitig verhindert sie den Einsatz moderner leistungsfähigerer Prozessoren.

Starres Betriebssystem beschränkt die PCs

So leisten neu eingeführte RISC-Prozessoren durchweg das Dreifache der jeweils neuesten Modelle der i80x86-Linie. Innovative Superskalar-Architekturen (zum Beispiel IBM RS/ 6000) lassen die PC-Chips insbesondere im numerischen Bereich noch weiter hinter sich zurück.

Aber auch das starre Betriebssystem beschränkt die PCs. So wird OS/2 auf absehbare Zeit weder symmetrische Mehrprozessorsysteme noch fehlertolerante PC-Varianten unterstützen. Es gibt also eindeutige Grenzen.

Interessanterweise zeigt die Klasse der Unix-Systeme ihre Stärken gerade bei der Skalierbarkeit der Leistung und der Anpassungsfähigkeit des Betriebssystems - bei den beiden Schwachpunkten von PCs also So laufen alle RISC-, Superskalar- und viele Mehrprozessorsysteme unter Unix. Die beiden Marktführer für ausfallsichere Maschinen, Tandem und Stratus, stellten jüngst fehlertolerante Unix Systeme vor. Die fast vollständige Implementierung in der Hochsprache C und die offene Lizenzierungspolitik für den Quellcode von Unix erklären die leichte Übertragbarkeit auf neueste Prozessor- und Systemarchitekturen. Trotz dieser Flexibilität stellt die Unix-Systemklasse durch definierte Betriebssystem-Schnittstellen (Posix, X/Open CAE) zumindest für Quellprogramme eine standardisierte Plattform dar, die mittlerweile alle proprietären Systemklassen (DEC VAX, IBMs, SAA) hinsichtlich der verkauften Stückzahl überflügelt hat.

Resümierend zeigen die Bilder 1, 2 und 3 nochmals, wie sich PCs und Unix-Systeme als komplementäre, offene Systemklassen ergänzen. In den 90er Jahren dürften sich unter ausschließlicher Nutzung dieser beiden Systemklassen Lösungen für nahezu alle EDV-Aufgabenstellungen schaffen lassen. Dreh- und Angelpunkt wird dabei der Netzverbund von PCs und Unix-Systemen sein. Wie sehen also die gattungsspezifischen Netze der Unix-Welt aus, auf die PCs beziehungsweise PC-Netze stoßen?

Unix-Workstations, die ab Anfang der 80er Jahre als erste Produkte einen fest eingebauten Netzwerkanschluß besaßen, nutzten zur Kommunikation Ethernet als Netzwerk und die TCP/IP Protokolle als grundlegende Verständigungsregeln. Der Boom der Workstations machte diese Kombination zum Standard für die Vernetzung in der Unix-Welt. Heute unterstützt fast jedes Unix-System Ethernet und TCP/IP. Verfügbarkeit und Funktionalität wurden mehrfach bei offenen Netzwerkveranstaltungen wie auf der CeBIT mit Multinet demonstriert, bei denen mehr als hundert Systeme verschiedenster Hersteller mittels Ethernet und TIP/IP kommunizierten. Die hohe Akzeptanz dieses De-facto-Standards ließ schnell anspruchsvollere Dienste auf der Basis Ethernet plus TIP/IP entstehen. Auf grundlegende Dienste wie Dateitransfer und Login über das Netzwerk folgte NFS (Network File System), das die Verteilung von Dateien über die Grenzen einer Maschine hinaus erlaubt. Mittels X-Windows können heute netzwerkweit verteilte Grafikanwendungen realisiert werden. NCS (Network Computing System) bietet die Möglichkeit, Haupt- und Unterprogramme eines einzigen Programms auf verschiedene Maschinen eines Netzes aufzuteilen und stellt damit die Basis für verteilte Anwendungen nach dem Client-Server-Konzept. Für die Zukunft läßt die Standardisierung weitere höhere Dienste erwarten, wie beispielsweise den netzweit einheitlichen Zugriff auf eine zentrale SQL-Datenbank.

Der Fortschritt bei Unix-Netzen resultiert in starkem Maße aus den Fähigkeiten des Betriebssystems Unix selbst. Mit Multitasking und dem aus der Multiuser-Fähigkeit entstandenen Datei- und Sicherheitskonzept bot Unix von Beginn an eine Plattform, auf der sich insbesondere Serversoftware leicht aufsetzen ließ. Ein Warten auf den LAN Manager von OS/2 oder der Aufwand, ein spezielles Netzwerk-Betriebssystem (Netware) zu schreiben, blieb der Unix-Welt erspart. Ethernet, das die Netzhardware und die niedrigsten Protokollschichten definiert, konnte mittlerweile zum ISO-Standard avancieren Damit ist eine Investition in Ethernet-Verkabelung und Ethernet-fähige Computer eine geschützte Investition. Ebenso haben sich die TIP/IP-Protokolle und aufgesetzte Dienste zu De-facto-Standards entwickelt. Mit FDDI, einem Glasfasernetz mit dem zehnfachen Durchsatz von Ethernet, zeichnet sich ein ergänzender Netzstandard ab. Auch hier ist wieder die Workstation-Welt die treibende Kraft, denn High-end-Workstations benötigen deutlich schnelleren Zugriff auf Serversysteme, als ihn Ethernet heute bieten kann.

Unix-Systeme werden im Netz dauerhaft dort Fuß fassen, wo PC-Architekturen an ihre Grenzen stoßen. Für Arbeitsplatzsysteme heißt unter dieser Prämisse die Unix-Festung "High-end-Workstation". Der Einsatz von RISC-, Vektor- und Superskalar-Prozessoren verbunden mit enggekoppelten 3D-Grafikkomponenten räumt Diesen Systemen auf den Schreibtischen von Konstrukteuren, Wissenschaftlern, Entwicklern sowie professionellen Designern und Publishern einen festen Platz ein.

Spezialserver bedienen zentral die Arbeitsplatzsysteme - von der mächtigsten Workstation bis zum Low-end-PC - mit Datenbank-, Datei- oder Rechenleistungen auf höchstem Niveau Überall wird hier Höchstleistung erst durch Unix möglich. So sind High-end-Datenbankserver nur dank der Unix-Unterstützung von RISC-oder Mehrprozessorsystemen realisierbar. Hierarchische Dateiserver auf der Basis optischer Wechselplatten mit bis zu 1000 GB Kapazität setzen auf der Modifzierbarkeit des Unix-Kerns auf. In Rechenservern bändigt nur ein stark angepaßtes Unix Parallel oder Vektorarchitekturen für die Nutzung im Netz.

Ein großes Ziel und zwei Wege dorthin

Die beiden gängigen beziehungsweise sich abzeichnenden

Integrationswege sind stark davon abhängig, ob der PC- oder der Unix-Anteil das Gesamtnetz prägen soll.

Unix-Dominanz liegt typischerweise in technisch orientierten Netzen bei Forschungs-, Entwicklungs- oder Konstrukitionsabteilungen vor. Um kostengünstigere Low-end-Arbeitsplätze zu schaffen, um besondere Softwarepakete aus der PC-Welt zu nutzen oder um zusätzlich kommerzielle Anwendungen in das vormals rein technische Netz zu integrieren, werden die Netze durch PCs erweitert. In diesen Fällen bietet es sich an, den PC mit einem Ethernet-Anschluß und Netzwerksoftware für die Unix-üblichen TIP/IP-Protokolle und Dienste auszurüsten. Wie erwähnt sind die TIP/IP Protokolle und Dienste ein vollständig dokumentierter De-facto-Standard. Daher gibt es einige Lieferanten, die MS-DOS-Implementierungen anbieten und so die konforme Nutzung der meisten Dienste aus der Unix-Netzwelt (Login, Filetransfer, Filesharing etc.) auf dem PC möglich machen.

Ein gemeinsames Problem aller Implementierungen ist der hohe Speicherbedarf, der einst für Unix entwickelten TIP/IP-Protokolle und der darauf aufsetzenden Dienste. So werden beispielsweise für Filesharing über den NFS-Dienst dem ohnehin mageren durch MS-DOS nutzbaren Speicher von 640 KB noch 80 bis 120 KB entzogen. Dies bedeutet für viele große MS DOS-Anwendungen "das Aus".

Aufgrund der fehlenden Multitasking-Eigenschaft von MS-DOS kann natürlich nur die Client-Seite der Dienste auf dem PC implementiert werden. Der PC unter MS-DOS kann also per NFS auf Dateien eines Unix Servers zugreifen, er kann jedoch nicht umgekehrt seine lokalen Dateien per NFS Unix-Systemen oder anderen PCs zur Verfügung stellen. Da der PC meist nur als Client arbeiten muß, ist diese Einschränkung noch tragbar. Doch es gibt auch störendere Limitationen mangels Multitasking. Zum Beispiel dann, wenn ein PC unter MS-DOS nicht gleichzeitig ein Anwendungsprogramm - zum Beispiel eine Textverarbeitung - und ein Programm zum Empfang elektronischer Post von einem zentralen Unix-System fahren kann. Eine wünschenswerte, sofortige Posteingangsmeldung an den Benutzer der Textverarbeitung ist dann nicht möglich. Trotz dieser Limitationen ist die dargestellte Einbindung in Unix-dominierte Netze sinnvoll und in der Praxis weit verbreitet. So schloß jüngst eine englische Hochschulbehörde einen Rahmenvertrag zur Ausstattung von 100 000 PCs mit TIP/IP und NFS ab. Künftige PCs unter OS/2 werden sich noch wesentlich besser direkt in Unix-Netze integrieren lassen, denn Multitasking und mehr nutzbarer Hauptspeicher erlauben vollständige TIP/IP-Implementierungen (Client und Server). Erste OS/2-Implementierungen sind schon auf dem Markt erschienen. Bild 4 zeigt exemplarisch, wie ein komplexes Netzwerk-Szenario nach diesem Modell aussehen kann.

Bei den PC-geprägten Netzen findet man vorwiegend eine Ausrichtung auf kommerzielle Aufgaben. Hier sind es häufig Branchenlösungen, die nur unter Unix verfügbar sind, die den Wunsch nach Unix-Integration in das PC-Netz auf kommen lassen. Mit der breiteren Akzeptanz von Client-Server-Anwendungen in PC-Netzen wird aber insbesondere der Bedarf nach immer leistungsfähigeren, aufgabenspezifischen Servern den Ruf nach Unix-Servern als Ergänzung oder Substitution existierender PC-Server laut werden lassen.

Aufgrund der bleibenden Dominanz der vernetzten PCs kommt es bei der zusätzlichen Einbringung von Unix-Komponenten auf die vollständige Erhaltung der PC-Netzwerk-Funktionalität an. Denn dedizierte PC-Netzwerkpakete (Netware, LAN Manager) haben die erwähnten Limitationen bei TIP/IP-Einsatz auf PCs durch PC-spezifische Tricks cleverer umgangen. So fahren PC-Netzwerkpakete extrem kompakt implementierbare Hausprotokolle, die beispielsweise den Speicherbedarf einer Novell Client-Software auf 15 KB drücken. Meldungen über eingegangene Post innerhalb von MS-DOS-Anwendungen werden durch ein "aufgesetztes" Multitasking innerhalb der Client-Software realisiert. Weiter zu beachten ist, daß zwar auch bei dedizierten PC-Netzen Ethernet als Verkabelungssystem dominiert, daß aber auch viele andere Systeme installiert sind wie Token-Ring, Arcnet etc. Es muß also unter Umständen auch ein physikalischer Übergang in die fast zu hundert Prozent durch Ethernet geprägte Unix-Netz-Welt geschaffen werden.

Der bisweilen genutzte Ansatz, diese Anforderungen zu erfüllen, besteht darin, daß in dem existierenden, dedizierten PC-Netzwerkserver eine Gateway-Software und eine Ethernet-Karte zur Koppelung mit dem Unix-System installiert wird. Ferner erhalten die PC-Clients weitere Kommunikations-Softwaremodule. Sie erlauben typischerweise das Login und den Filetransfer zum Unix-System über den Netzwerkserver mit der Gateway-Software. Dieser Ansatz erlaubt neben dem erlaubt neben dem Filtertransfer lediglich die Nutzung von Anwendungsprogrammen auf der Unix-Maschine von Client-PCs aus, so als seien diese Client-PCs als Terminals direkt an die Unix-Maschine angeschlossen.

Filesharing von Dateien, die die Unix-Maschinen per NFS anbieten, bleiben bei dem Ansatz ebenso auf der Strecke wie die Nutzung anderer Client-Server-Dienste. Deshalb ist diese Art der Einbindung für komplexe Mix-Netze ungeeignet. Aber auch für kleine Lösungen mit nur einem Unix-System und nur einem dedizierten PC-Netzwerkserver hat der Ansatz ein Handicap: er ist zu teuer, denn es werden zwei Systeme und Gateway-Hard- und Software benötigt. Meist wäre in dieser Konstellation eine Hardwareplattform von ihrer Leistung her in der Lage als Unix-System und als PC-Netzwerkserver in Personalunion zu fungieren. Den Aspekt konnten auf Dauer auch die Hersteller dedizierter PC Netzwerk-Software nicht ignorieren. Daher stehen seit kurzem die Novell Portable Netware und der Microsoft LAN Manager/X zur Verfügung beziehungsweise kurz vor der Marktreife.

Vollwertiger Server für dediziertes PC-Netzwerk

Die Portable Netware wird auf ein Unix-System portiert und kann von einer Unix-Plattform aus fast alle Dienste der dedizierten PC-Netzwerk-Software Netware 386 bieten. Der LAN Manager/X ist eine Unix-Version des für OS/2 entwickelten LAN Managers mit allen typischen Leistungen

Beide Pakete machen aus einen Unix-System einen vonwertigen Server für ein dediziertes PC-Netzwerk, wobei die Unix-Funktionalität von erhalten bleibt. So wird in Low-end-Konstellationen ein System eingespart In High-end-Konstellationen kann ein hochkarätiges Unix-System mit Rechenleistung, Plattenkapazität und Backup-Möglichkeiten, die weit über PC-Serverniveau liegen, ohne funktionale Verluste als Server in einem dedizierten PC-Netz arbeiten. Natürlich erlaubt eine solche enge Koppelung der Serversoftware an Unix auch die Ausführung weiterer Client-Server-Dienste wie beispielsweise N1 S Die Grafik auf Seite 33 zeigt exemplarisch, wie ein komplexes Netzwerk-Szenario bei Einsatz von Portable Netware oder LAN Manager/X aussieht

Die Integration von Unix-Systemen und PCs wird die Basis offener, hochfunktionaler und preiswerter EDV-Lösungen in den 90er Jahren sein. Jenseits dieser Grunderkenntnis steht der Lösungssuchende einem EDV-Markt gegenüber, der durch sein explosives Wachstum und sein innovatives Potential in den letzten Jahren eine unüberschaubare Vielfalt von PC- und Unix-Produkten, Konzepten und Standards hervorgebracht hat. Will der Lösungssuchende von diesem Produktangebot zur aufgabengerechten PC-Unix-Integration kommen, muß er entsprechend dem Marktwachstum über ein ständig zunehmendes Maß an Spezialwissen über Produkte, Konzepte und Standards verfügen. Immer weniger Unternehmen haben jedoch die Zeit und die personellen Ressourcen, hier mitzuhalten. Dies gilt selbst für Unternehmen mit eigenen großen EDV-Abteilungen. Angesichts dieser Diskrepanz haben sich in der freien Marktwirtschaft neue Lieferanten für komplexe, offene EDV-Lösungen herausgebildet: die herstellerübergreifenden Systemintegratoren.

Der Systemintegrator ist zwischen dem lösungssuchenden Kunden und einer Vielzahl von produktofferierenden Herstellern angesiedelt. Er analysiert die Aufgabenstellungen des Kunden und erarbeitet Lösungsvorschläge, die sich auf ein breites, umfassendes Produktangebot vieler Hersteller stützen können. Als Generalunternehmer integriert er die ausgewählten Produkte zur Gesamtlösung, wobei gegebenenfalls aufgabenspezifische Hard- oder Software-Entwicklung eingeschlossen ist. Nach der Installation sorgt der Systemintegrator auch für Benutzerschulung, Support und Service kommen aus einer Hand. Das Geschäftsfundament ist die kontinuierliche Verfolgung des Marktgeschehens. Darauf aufbauend, erarbeitet der Systemintegrator ständig fundiertes Know-how über neue Produkte, neue Standards und neue Konzepte für EDV-Lösungen.

In den USA ist der Systemintegrator schon seit Jahren ein gefragter Partner. Aber auch für den deutschsprachigen Raum steht gerade angesichts der Vorteile ein Boom für die Systemintegration vor der Tür. +

*Dipl.-lng. Michael Büning ist Marketing-Leiter bei der GEI Rechnersysteme GmbH in Aachen.