Betriebssysteme 1993, Teil 2 und Schluss Der objektorientierte Aufbruch zur verteilten Systemumgebung Von CW-Redakteur Hermann Gfaller

07.01.1994

Das Jahr 1993 stand nicht nur im Zeichen von Microsofts Windows NT und der Einigung der bisher notorisch zerstrittenen Unix-Gemeinde. Es wurden auch die Umrisse von Entwicklungen erkennbar, in deren Mittelpunkt Techniken stehen, die nur noch wenig mit den heute ueblichen Betriebssystemen gemein haben. Die konventionellen Systeme machen einem Vierschichtenschema aus Microkernel, sogenannten Personality-Funktionen, Middleware und Benutzerumgebung Platz. Die gesamte Datenverarbeitung und mit ihr die Betriebssystem- Technik befindet sich im Umbruch. Ausloeser war nicht zuletzt das Scheitern monolithischer True-Blue-Konzepte, die nun durch offene Architekturen abgeloest werden sollen. Als Reaktion oeffnen die Hersteller selbst ihre proprietaeren Systeme der Client-Server- Welt. So heisst DECs VMS inzwischen Open VMS, und auch IBMs OS/400- Betriebssystem soll bis 1995 eine Posix-Schnittstelle erhalten. Doch fuer Betriebssystem-Anbieter im Client-Server-Bereich gelten andere Regeln als fuer Mainframe-Produzenten. So zwingt der Open- Systems-Markt die Konkurrenten einerseits zu Kooperationen, weil in einer heterogenen Anwenderlandschaft moeglichst viele Systeme unterstuetzt werden muessen. Andererseits fordert der Wettbewerb immer kuerzere Produktzyklen. Letztere werden vor allem durch die Aufteilung der Betriebssystem-Bestandteile in Schichten und Module erreicht, so dass bei einer Innovation nicht das ganze System neu geschrieben werden muss. Dabei, so hat sich in diesem Jahr herauskristallisiert, verfolgen fast alle Hersteller ein aehnliches Konzept. Ein schlanker Microkernel - die OSF, DEC, Next und vermutlich auch Taligent verwenden Mach, die USL/Novell das entsprechende Produkt von Chorus - uebernimmt Basisfunktionen wie die Verbindung zur Hardware, die Prozessorkommunikation und das Thread-Management. Ueber standardisierte Schnittstellen - die im Falle von Windows NT proprietaer sind - wird die eigentliche Betriebssystem-Schicht angekoppelt. Auf dieser versuchen die Hersteller, die Funktionen durch voneinander saeuberlich isolierte Objekte zu modularisieren. Die hier angesiedelten Dateisysteme werden kuenftig durch kleine Datenbanken ersetzt. Fuer Microsofts Cairo ist beispielsweise die Datenbankmaschine von Access im Gespraech. Microkernel haben den Vorteil, dass sie mehr als nur ein Betriebssystem zur gleichen Zeit verwalten koennen. Dieses Konzept mehrerer Betriebssystem-Personalities verfolgen vor allem die IBM mit Workplace OS und Apple im Rahmen des Taligent-Joint-ventures mit der IBM. Nach Informationen von Taligent sind fuer Pink als Betriebssysteme vorlaeufig OS/2, Power Open und AIX vorgesehen; weitere Unix-Varianten sollen folgen. Anbieter beschreiben ihr Verhaeltnis als Koopetition Unklar ist derzeit allerdings, ob Apple die Taligent-Kooperation finanziell durchstehen kann. Andere Anbieter, wie etwa Sun, arbeiten zwar an einer Microkernel-Architektur, verzichten aber derzeit noch auf das Personality-Konzept. In der Schicht ueber dem Betriebssystem befindet sich die in diesem Jahr zum neuen Schlagwort gewordene Middleware. Dabei handelt es sich im wesentlichen um Dienste, die die Verwaltung und das Betreiben von Anwendungen in verteilten Umgebungen ermoeglichen. Diese Art von System-Management gehoert angesichts der heterogenen DV- Landschaften im beginnenden Client-Server-Zeitalter zu den dringlichsten Beduerfnissen der Anwender. Hier eine Loesung zu schaffen gelingt nur, wenn alle in den Unternehmen vertretenen Hersteller zusammenarbeiten. Zu diesem Zweck haben sie sich in Konsortien wie der Open Software Foundation (OSF) und der Object Management Group (OMG) zusammengeschlossen. Allerdings arbeiten die Hersteller bei der Entwicklung von Betriebssystemen lediglich dort zusammen, wo es um sogenannte "Enabling Technologies" geht, mit denen eine Infrastruktur fuer verteilte DV geschaffen wird. Bei der Vermarktung der gemeinsam entwickelten Techniken greift dann wieder das Wettbewerbsprinzip. Die Anbieter beschreiben ihr Verhaeltnis zueinander daher als "Koopetition". Die Anwender profitieren davon. So sind in diesem Jahr mit OSFs Distributed Computing Environment (DCE) und Distributed Management Environment (DME) sowie der OMG-Technik Common Object Request Broker Architecture (Corba) zentrale Middleware-Techniken vorgelegt worden. Bei DCE, das inzwischen in Produkte zum Beispiel von Siemens-Nixdorf implementiert ist, handelt es sich im Kern um einen standardisierten Remote Procedure Call (RPC) zum Aufruf von Programmen, die sich irgendwo im Netz befinden, sowie um Namenskonventionen fuer Funktionen und Adressen, die Missverstaendnisse in heterogenen Umgebungen verhindern sollen. Erweitert wird das bereits als offener Standard geltende DCE durch die Management-Umgebung DME, die im Herbst dieses Jahres von der OSF zur Implementierung an die Hersteller ausgeliefert wurde. Hier spielen objektorientierte Techniken eine Rolle, wie sie etwa die Tivoli Systems Inc. aus Austin, Texas, zur Verfuegung stellt. Auf proprietaerer Seite bietet Microsoft mit Hermes ein Werkzeug fuer das System-Management an, das aber den Funktionsumfang von DME nicht erreichen kann. Entsprechende Luecken versucht Microsoft, mit dem System-Management-Tool "Unicenter" von Computer Associates zu schliessen. Aus der momentanen Betriebssystem-Sicht kommt DCE, DME, Hermes und Unicenter lediglich eine Randposition zu. Dieser Eindruck schwindet jedoch in dem Masse, in dem derartige Techniken als Ebene zwischen Benutzerumgebung und Personalities eingezogen werden. Erste Vorstellungen davon, wie das aussehen kann, gibt der Corba- Standard. Zur Zeit steckt dahinter lediglich ein objektorientiertes Messaging-System, mit dem sich Anwendungen ohne Wissen der Anwender netzweit Nachrichten zusenden. In der fuer 1994 angekuendigten Folgeversion soll es mit dieser Technik moeglich sein, transparent Anwendungen von einem System auf einem gaenzlich anderen Rechnertyp zu starten und zu benutzen. Netzweite Kommunikation zwischen den Anwendungen Beim Anwender machen sich die Vorteile dieser Technik zum Beispiel dadurch bemerkbar, dass er in zwei Fenstern seines Bildschirms Anwendungen laufen lassen kann, von denen die eine lokal vorliegt, waehrend die andere - ohne sein Wissen - ueber Netz von einem anderen System geladen wird. Intensive netzweite Kommunikation zwischen den Anwendungen setzt ein, wenn der Anwender das Betriebssystem nutzt, um per Drag and drop Daten von einem Fenster ins andere zu kopieren. Derartige Middleware-Funktionen weisen auf einen weiteren Trend hin, dessen erstes konkretes Ergebnis 1993 in der Freigabe des Windows NT Advanced Server bestand. Hier hat Microsoft versucht, klassische Systeme mit Netzwerk-Betriebssystemen zu verschmelzen. Es gibt kaum Zweifel, dass die anderen Anbieter nachziehen werden, falls sich Bill Gates mit diesem Konzept durchsetzt. Entwickler schreiben nur noch fuer das API Ganz oben in der Betriebssystem-Hierarchie ist die Benutzerumgebung angesiedelt. Welche Bedeutung dieses Thema inzwischen hat, belegt der jahrelange Streit um eine Standardoberflaeche fuer Unix-Systeme. Bei diesem Thema geht es eigentlich um zwei Dinge: Die Anwender sind zum einen nicht mehr bereit, bei der Bedienung jeder Applikation und bei jedem neuen Rechnersystem gaenzlich umlernen zu muessen. Wichtiger als eine einheitliche Gestaltung der Oberflaeche ist zum anderen jedoch die Entwicklungsumgebung. Im Rahmen des industrieweit akzeptierten Schichtmodells soll kuenftig ein Grossteil der Anwendungen nicht mehr auf den Betriebssystem-Kern oder gar die Hardware zugreifen, sondern nur noch auf die Benutzeroberflaeche. Schon jetzt programmieren Entwickler im Microsoft-Umfeld nicht fuer DOS, sondern vielmehr fuer das Windows Application Programming API (Win API). Dasselbe gilt fuer Unix, nachdem sich die Branche Anfang des Jahres im Rahmen der COSE-Initiative auf ein Common Desktop Environment (CDE) geeinigt hat.