IBM und Apple sind zwei Jahre im Verzug

Unix ist offen für alle -vom Desktop bis zum Mainframe

22.11.1991

Offene Systeme sind für Anwender im MS-DOS-Bereich längst Realität, Im Server-Markt sind dagegen transparente Schnittstellen für Value-Added-Reseller erforderlich, behauptet Gunther Guzielski, der Unix als das einzig offene Betriebssystem bezeichnet, das den steigenden Anförderungen der DV gewachsen ist. Der folgende Beitrag beleuchtet den Desktop-, Server-und Großrechner-Markt und zeigt, daß die Unix-Schlacht noch nicht geschlagen ist.

Die High-Tech-Branche ist es gewohnt, mit offenen Systemen umzugehen, jedenfalls in der Videoindustrie. Videos werden als Software produziert, und das Logo "VHS" garantiert die Abspielbarkeit auf vielen Geräten. Die Hersteller kämpfen um Marktanteile, indem sie die Bedienbarkeit ständig optimieren, um bessere, buntere und schärfere Bilder zu liefern - ohne den verbindenden Standard VHS anzutasten. Man erinnere sich jedoch an die Zeit, als neben VHS die Videosysteme "ß-max" und "Video 2000" um Akzeptanz kämpften. Den Sieg trug das System mit den größten Marktanteilen davon, nicht unbedingt das technisch interessanteste.

Die drei Welten der DV-Industrie

Die Entwicklung des Videomarktes als einer offenen Systemwelt läßt sich auf die Verhältnisse in der DV-Industrie übertragen. Hier existiert noch die "Vor-VHS/ß-max/Video2000-Welt". Heute ist noch absolut unklar, welches Verfahren sich durchsetzt. Vermutlich wird es sogar nicht eine einzige Technologie sein.

Die DV-Landschaft ist vielschichtiger als die Video-Industrie. Hier spielen neben Hard-und Software auch noch das Betriebssystem und mit zunehmender Bedeutung Service und Beratung eine Rolle.

Die Entscheidung zur Anschaffung von Hard- und Software verlagert sich weg vom Endanwender, die Bedeutung der Kosten relativieren technologische Aspekte.

Die folgende Unterteilung der gesamten DV-Industrie in drei Welten, die auch den Aktivitäten von Unix International zugrunde liegt, soll Licht in den Dschungel bringen:

- Desktop Computing (Personal Computing),

- Distributed Computing (Server),

- Corporate Hub Computing (Großrechner).

Im Desktop-Bereich befaßt sich eine Person relativ lange mit einer Aufgabe, wobei das Ergebnis während dieses Zeitraums nicht von anderen Personen benötigt wird, also Personal Computing.

Die typischen Anwendungen sind Textverarbeitung, Kalkulation, Erstellen von Präsentationen und Desktop Publishing. Solche Arbeitsplätze existieren bereits in sehr hoher Anzahl; man spricht von 50 Millionen verkaufter PCs. Das Personal Computing dringt zudem über Laptops, Notebooks, Pentops, Palmtops und Home-Computer immer weiter in den Privatbereich vor, so daß ein Anstieg auf noch größere Stückzahlen vorhersehbar ist.

Der PC-Bereich läßt sich am ehesten mit der Videoindustrie vergleichen. Die Hard- und Software wird häufig von Benutzern ohne tiefgehendes technisches Verständnis gekauft, installiert und eingesetzt. Damit sind auch die Bedingungen dieses Marktes definiert: Preiswerte Hardware und einfach zu installierende sowie preiswerte Software werden über kostengünstige Vertriebswege (Kaufhäuser, Supermarkt-Ketten) überall angeboten. Dabei wird die Kompatibilität von Hardware, Software und Betriebssystem als selbstverständlich vorausgesetzt.

Bislang ist dieser Markt folgendermaßen strukturiert:

- Der Marktführer entscheidet über den Erfolg eines Produkts, nicht die innovativste Technik.

- Der Marktführer wird hemmungslos nachgeahmt (Clones).

- Da die Technik identisch ist, findet der Wettbewerb über den Preis statt.

- Die Software, die den Bedürfnissen der Nutzer, exzellent angepaßt ist, wird von hochspezialisierten Softwarehäusern erstellt und ist an jeder "Straßenecke" erhältlich.

- Alle benutzen das gleiche Betriebssystem, um die Kompatibilität zu gewährleisten.

Als interessantes Phänomen zeigt sich in diesem Bereich, daß der Marktführer trotz der zahlreichen Anbieter von Chip-und Betriebssystem-Clones einen deutlichen Anteil am gesamten Markt behalten hat, da sich auch mit preiswerter Massensoftware Geld verdienen läßt. Der PC-Sektor ist jedoch an seine technologischen Grenzen gestoßen.

Der Zwang zur Kompatibilität zu den ersten 80386--PCs und die strikte Einschränkung durch die 640-KB-Hauptspeichergrenze bremst die Softwareentwicklung. Die Technologie reicht für die heutigen Anforderungen an Software-Ergonomie und Leistung nicht mehr aus und kann den Anspruch auf hochauflösende, Fenster-Benutzeroberflächen nicht mehr befriedigen.

Der Versuch, im Clone-Markt neue Technologien zu entwickeln, um die engen Hardware. Ketten zu sprengen, führte zur Mutation des Betriebssystems. Das hatte zur Folge, daß die notwendigen Betriebssystem-Erweiterungen (Softwaretreiber) mitgeliefert werden mußten. Ein typisches Beispiel für diese Problematik zeigt sich, wenn mehrere PCs mit MS-Windows, PCNFS und einem X-Windows-Emulator mit Unix-Systemen verbunden werden. Die unterschiedlichsten Treiber harmonieren nicht und treiben bestenfalls den Netzwerk-Manager zur Verzweiflung. Deswegen sind für den Desktop-Markt Neuerungen erforderlich;

- Standardisierung und Grafik für die Benutzerführung fordern extrem leistungsfähige Mikroprozessoren, deren Architektur genügend Leistungsreserven für die Zukunft enthält. RISC-Technik scheint hier unumgänglich zu sein.

- Ein Standard-Betriebssystem ist nach wie vor Bedingung für diesen Markt. DOS kann es nicht sein, da für Grafik- und Multimedia-Anwendungen ein nahezu uneingeschränkter Adreßraum wichtig ist. Ferner erfordert die Fensteroberfläche echtes Multitasking, kein Pseudo-Multitasking wie bei Windows 3.0.

- Natürlich soll nach wie vor die phantastische Softwarewelt der PCs erhalten bleiben - also Programme, die Binärcodekompatibel sind und die als Massenware überall angeboten werden, weil die Vielfalt unter einem einzigen Betriebssystem läuft.

Im Augenblick lassen sich drei verschiedene Prozesse beobachten:

- Auf der Intel-386- und -486-Architektur wird SCO-Unix als Betriebssystem eingesetzt. Unix realisiert gegenüber DOS auf diesen Prozessoren durch einen flexiblen Adreßraum eine höhere Leistung. Das Angebot an Applikationen für diese Umgebung wächst schnell, die existierende Hardware kann genutzt werden.

- Mit Sun tut sich ein neuer Fixstern am Desktop-Himmel auf. Sun initiiert durch beispiellose Marketing-Politik einen Clone-Markt für die eigenen Produkte. Die Mikroprozessor-Technologie steht den Nachahmern aus unterschiedlichen Quellen zur Verfügung. Das Betriebssystem stellt die Sun-Tochter Sunsoft mit dem sonnigen Namen Solaris jedem als Sourcecode zur Verfügung. Da Solaris auch für 386er und 486er Prozessoren angeboten wird, hat man sich in geschickter Weise an die PC-Architekturen angekoppelt. Zusätzlich erwarb Sun das Unternehmen Interactive und damit das Know-how des zweiten wesentlichen Unix-Anbieters in diesem Bereich. Für den Sparc-Solaris-Clone-Markt scheinen alle Weichen gestellt zu sein - Sun wird einen erheblichen Anteil an diesem Markt haben.

- Als Konkurrenz dazu bildete sich das Halbleiter-Triumvirat aus IBM, Apple und Motorola, das offensichtlich ähnliche Pläne verfolgt. Ein neuer Mikroprozessor, der Power-PC-Chip, wird von Motorola und IBM nach dem Vorbild der Power-RISC-Architektur von IBM gebaut. Das Betriebssystem von IBM und Apple soll über das "unabhängige" Software-Unternehmen Taligent vertrieben werden. Es basiert auf dem Betriebssystem-Prototyp Pink von Apple.

Zusätzlich gründeten IBM und Apple das ebenfalls "unabhängige" Unternehmen Kaleida, das Multimedia-Software produzieren und anbieten soll. Die geplanten Produkte müssen jedoch mit einem zeitlichen Rückstand von zwei Jahren gegen die heutige Desktop-Konkurrenz antreten.

Im Desktop-Markt dominieren Clones auf der Basis grundsätzlich gleicher Hardware-Architektur mit einem Binär- und Objectcode-kompatiblen Betriebssystem. Hier muß ein offener Markt bestehen. Dieser heißumkämpfte Desktop-Bereich ist nicht zuletzt wegen der hohen Stückzahlen der spektakulärste, der die größten Chancen hat, ein starkes Image in der gesamten DV-Landschaft aufzubauen. Welches Pendant zu Video 2000, Betamax oder VHS letztlich überlebt, bleibt noch abzuwarten. Hier entscheidet die Verfügbarkeit von Hard-und Software.

Als Distributed Computing wird der technologisch und organisatorisch weitaus komplexere Server-Markt definiert. Hier müssen Daten nahezu gleichzeitig einer größeren Zahl von Anwendern zur Verfügung stehen. Dieses Marktsegment prägen Datenbank-Anwendungen auf Abteilungsrechnern, die mit den Desktop-Geräten durch lokale Netzwerke (LANs) verbunden sind.

Die zugehörige Hard- und Software wird nicht von den Anwendern selbst beschafft, sondern von Spezialisten. Die Entscheidung für ein Produkt trifft nicht der Endanwender selbst, sondern das Unternehmen respektive das Management. Hier dominiert das innovativste Produkt, das sich am flexibelsten der Unternehmensstruktur anpaßt und wo die Investition in Training und Software-Entwicklung langfristig ohne Zwänge und Abhängigkeiten (proprietäre Systeme) geschätzt ist.

Auch hier ist ein Standard-Betriebssystem unumgänglich, auf dem die wesentlichen Standard-Applikationen (Datenbanken) langfristig mit genügend Alternativen zur Verfügung stehen. Während der Hardware-Innovationszyklus heute bei zwei bis fünf Jahren liegt, beträgt der unternehmensspezifische Software-Innovationszyklus zehn bis 15 Jahre. Die Software muß also noch mindestens zehn Jahre auf den jeweiligen Hardware-Erweiterungen oder -Erneuerungen einsatzfähig sein.

Server-Markt öffnet sich durch Sourcecode-Standards

Da die Auswahl der Produkte durch Spezialisten erfolgt, hat die Hardwarebeschaffenheit im Server-Markt noch extremer als im PC-Markt der neuesten, leistungsfähigsten Technologie zu entsprechen (symmetrisches Multiprocessing). Hier kann man sich nicht auf eine Hardware- oder gar Mikroprozessor-Architektur festlegen. Im heutigen Server-Markt ist es noch undenkbar, auf Objekt- und Binärcode-Kompatibilität oder Shrink-wrapped-Software zu bestehen, dieser Markt kann gegenwärtig nur offen sein, wenn er durch einen Sourcecode-Standard zusammengehalten wird.

Den Bereich Distributed Computing kennzeichnen niedrigere Stückzahlen, aber längere Entscheidungszeiträume. Dadurch kann es sich zum Beispiel ein Datenbankanbieter leisten, mehrere nicht-binärkompatible Prozessorarchitekturen zu unterstützen, solange diese auf einem gemeinsamen Sourcecode-Standard basieren.

Langfristig besteht auch hier der Anspruch, Softwarekompatibilität hardwareseitig von verschiedenen Herstellern zu gewährleisten. Der Silberstreifen am Horizont heißt ANDF (Application Neutral Distribution Format), ein Pseudo-Sourcecode, den die OSF entwickelt. Die einzige gegenwärtige Garantie für Softwarekompatibilität gibt das 88-open-Zertifikat, das sich auf verschiedene Hardware-Architekturen bezieht, allerdings mit identischem Mikroprozessor: dem RISC-Chip M8800 von Motorola.

Als weitere Spezialität fordert der Server-Markt, daß systemnahe Produkte, wie Hardware-Erweiterungen für spezielle Aufgaben (Kommunikation), vom Hersteller selbst für die entsprechende Betriebssystem-Umgebung entwickelt und installiert werden. Eine Alternative hierzu stellen offene, modulare Hardware-Standards (Bus-Systeme) dar, auf deren Basis spezialisierte Komponentenhersteller Computer-Boards produzieren können, die dann der Systemhersteller integriert, um dem Kunden die Lauffähigkeit zu garantieren. Distributed Computing fordert Offenheit bei den Kommunikationsstrukturen, da verschiedene Desktop-Ausstattungen zu berücksichtigen und zu integrieren sind. Es soll die Verbindung von Rechnern mit unterschiedlicher Hard- und Software-Architektur möglich sein. Novell-Netware erfüllt diese Forderung sicherlich nicht, X-Window auf der Basis von TCP/IP-Ethernet ist dagegen schon ein vielversprechenderer Kandidat.

Der Markt für Distributed Computing benötigt hochqualifizierte Berater, die auf der Basis von offenen und modularen Hardware-, Software- und Kommunikationskomponenten kundenspezifische Lösungen integrieren.

Mainframes: Beliebtheit gegenüber Servern sinkt

Erhöhte Anforderungen an Rechnerkommunikation (WAN), Ausfall- und Datensicherheit erzwingen spezielle Hardware-und Software-Architekturen, die wiederum Systemverwalter-Kenntnisse erfordern, die ein normaler Benutzer nicht hat. Selbst beim Programmierer ist nicht das Werkzeug entscheidend, sondern die Erfahrung auf speziellen Softwaregebieten. Der Programmierer, der in den siebziger Jahren Cobol oder auch Basic gelernt hat, ist wegen seiner jahrelangen branchenspezifischen Erfahrung vielen Modula-2- oder C + + -Programmierern überlegen.

Value-Adding durch Beratung, Service und branchenspezifisches Know-how ist ein Charakteristikum des Server-Marktes. Value-Adding leistet der Spezialist, der Hard- und Software beim Kunden integriert. Value-Adding leistet auch der Lieferant von Hard- und Software. Alle drei Funktionen übernimmt in diesem Markt meist der Value-Added-Reseller; Offenheit der Produkte muß für ihn gegeben sein.

In diesem Bereich wird technologisch hochspezialisierte Maximalleistung gefordert --sei es, daß komplizierte Wetter- oder Sternhaufen-Modelle durchzurechnen, eine neue Primzahl zu finden oder in einem optimal transaktionsorientierten System weltweit Hotelbetten, Leihwagen, Flugsitzplätze und Theaterkarten zu verwalten sind.

Dieser hohe Grad an Spezialisierung erfordert das geringste Maß an Offenheit - Offenheit schadet aber auch nicht, zumal die Tendenz besteht, von der Großrechner-Umgebung auf standardisierte Server auszuweichen (Downsizing) oder diesen Bereich zu integrieren. Im letzteren Fall genügt es, sich auf die Offenheit von De-facto-Standardprotokollen zu beschränken. IBM-SNA oder Siemens-MSVI werden inzwischen von allen großen Anbietern am Server-Markt unterstützt.

Es gibt nur ein einziges Betriebssystem, das die Voraussetzungen bietet, den Forderungen der DV-Welt gerecht zu werden: nämlich Unix. Unix läßt sich als Kern einer Binärcode-kompatiblen, grafikorientierten Desktop-Benutzeroberfläche auf ein oder mehreren Desktops und seinen Clones einsetzen.

Ferner ist das Betriebssystem umfassend mit API-Schnittstellen (Application Programming Interfaces) ausgestattet, um Grafik, LAN- und WAN-Kommunikation, Distributed Computing, symmetrisches Multiprocessing oder erweiterte Systemsicherheit für Datenschutz und Fehlertoleranz zu realisieren. Unix läßt sich außerdem auf höchstspezialisierten Großrechnern verfügbar machen.

Während Herstellergruppierungen wie ACE, IBM/Appel/ Motorola, Sun und HP, Unix in Binärcode-kompatibler Form auf speziellen Hardware-Architekturen im Desktop-Bereich durchsetzen wollen, bemühen sich übergreifende Konsortien wie Unix International und OSF, dieses Produkt in Sourcecode-kompatibler Form den System- und Softwareherstellern nahezubringen - unter Berücksichtigung der Großrechner. Welche Variante das Rennen macht, ist offen.

Das VHS-Videosystem hat sich durchgesetzt. Aber es gibt auch hier die amerikanische NTSC- und die europäische PAL-Norm.