Round-table-Gespräch zur Serie: Downsizing, offene Systeme Teil 3

"Mainframes braucht man auch in großen Organisationen nicht"

18.10.1991

Seit gut einem Jahr grassiert eine neue Erfolgsformel bei absatzorientierten Herstellern: offene Systeme. Nicht, daß das Thema neu wäre. Schließlich bemühen sich verschiedene Standardisierungsgremien seit Jahren darum, über mehr oder weniger transparente Schnittstellendefinitionen und - in der Theorie - überzeugende Schichtenmodelle die Zugbrücken der verschiedenen Systemfestungen herunterzulassen und so die proprietären Einnahmequellen der Systemanbieter auszutrocknen.

Der Anwender - gefangen in den herstellerspezifischen Hardware- und Betriebssystem-Welten vor allem der IBM, aber auch der VMS-, BS2000-, MPE- und GCOS-Reservate - schielt auf den Hoffnungsträger Unix. Der erfüllt zwar noch nicht ganz die Anforderungen an ein Großrechner-Betriebssystem, die die MIS-Verantwortlichen der Unternehmen in puncto Sicherheitsaspekte oder System-Management- und Verwaltungsaufgaben erwarten und bei MVS oder VMS finden. Doch Unix gab den Anstoß, über Offenheit der heterogenen Hardware 9 ernsthaft zu diskutieren.

Die Hersteller, sensibel für jeden Trend, der sich in einem dahinvegetierenden DV-Markt in bare Münze umsetzen läßt, griffen das Thema Offenheit gerne auf, und der Anwender reibt sich verwundert die Augen: Innerhalb von Jahresfrist muß eine komplette Branche sich vom Saulus zum Paulus gewandelt haben.

Waren bislang proprietäre Systeme Garant für volle Kassen der Hersteller, so wollen sich heute die Firmen an Offenheit überbieten. Wo bisher schon der Übergang innerhalb der Hardwareplattformen eines einzigen Herstellers entweder gar nicht oder nur mit erheblichen finanziellen und zeitlichen Aufwendungen möglich war, soll nun im Zeitalter der Downsizing-, Client-Server- und Offene-Systeme-Debatten grenzenloser Kommunikation Tür und Tor geöffnet sein.

Diese erstaunliche Wandlung zur scheinbaren Offenheit hat COMPUTERWOCHE-Redakteur Jan-Bernd Meyer zum Anlaß genommen, Anwender und Systemhersteller an einem Tisch zu versammeln und zu diskutieren, was dran ist an der Diskussion um Offenheit, Downsizing, Client-Server.

Es stellte sich heraus, daß Offenheit der Systeme unterschiedlich definiert wird. Auch müssen sich die Hersteller noch einigen Anstrengungen unterziehen, um offene Systeme zu realisieren. Doch der Anwender sitzt den Herstellern nicht mehr mit gebundenen Händen gegenüber: Wie ein Gesprächsteilnehmer meinte, kann er vielmehr heute bereits den Herstellern seine Konditionen in puncto Hardware diktieren. Und noch etwas kristallisierte sich im Round-table-Gespräch heraus: Trotz noch vorhandener Defizite wird Unix bei der Verwirklichung offener Systeme als integrierende, weil von allen Herstellern angebotene, Betriebssystem-Plattform eine entscheidende Rolle spielen.

CW: Wenn die COMPUTERWOCHE über Offenheit der Systeme spricht, dann hat sie dabei eine andere Vorstellung als etwa die IBM, die seit neuestem bekanntlich Soges System bezeichnet. Was hat man denn nun unter Offenheit zu verstehen?

Thaler: Für mich als Anwender besteht die Offenheit darin, daß ich in der Lage bin, Anwendungssoftware in mindestens drei Dimensionen zu portieren: Erstens erwarte ich, daß das Nachfolgesystem eines Herstellers in der Lage ist, die Anwendungssoftware des vorangegangenen problemlos abzuwickeln. Das ist bis jetzt nicht immer der Fall. Ich erwarte zweitens, daß es möglich ist, Software von einer hierarchischen Rechnerebene in eine andere und auch noch in eine dritte zu portieren. Das heißt beispielsweise, daß man Anwendungssoftware wahlweise und ohne großen Aufwand sowohl auf dem Hauptrechner als auch einem System der Mittleren Datentechnik oder auf dem PC abwickeln kann. Und drittens erwarte ich natürlich auch, daß Anwendungssoftware vom Rechner-Modell des einen Herstellers auf ein Modell eines anderen, vielleicht sogar auf Computer mehrerer Hersteller portiert werden kann Das sind meine Wünsche zum Thema Offenheit. Ich muß aber feststellen, daß diese Form von Offenheit der Systeme noch nicht realisiert ist.

Zoller: Meiner Meinung nach haben Sie zu wenig auf den beidseitigen Kommunikationsaustausch abgehoben. Offenheit hängt doch mit OSI zusammen und stellt damit im wesentlichen eine Proprietät der Kommunikation zwischen zwei Rechnersystemen dar. Wenn ich beispielsweise zwei Hardwareplattformen habe - meinetwegen DEC und IBM -und die miteinander kommunizieren lasse, wenn also ein offener Daten- oder Programmaustausch im Sinne kooperierender Systeme realisiert wäre, könnte man meiner Meinung nach von einem offenen System sprechen. Portierbarkeit von Programmen auf verschiedene Rechner ist ein zusätzlicher Aspekt Nur, wer kann heute ein Programm von einem DEC auf einen IBM-Rechner portieren?

Kemmler: Wichtig bei offenen Systemen, die wir noch nicht haben und - da sind wir uns doch alle einig - auch auf absehbare Zeit nicht haben werden, wichtig bei offenen Systemen sind sicherlich vorhandene Standards.

CW: Mit den Standards ist das aber doch auch so eine Sache: Geredet wird viel drüber, aber wo sind denn wirklich ...

Kemmler: Das stimmt allerdings. Da gibt es zum einen die herstellerspezifischen Standards. Dann sind wir mit offengelegten Standards konfrontiert. Es gibt Standards von internationalen Gremien und solche, an denen die Anwender und Hersteller mitarbeiten - oder auch nicht...

CW: ... und wer kontrolliert all diese Standards?

Kemmler: Richtig. Wenn man zum Beispiel den PC betrachtet, dann ist der in der Definition, die wir hier treffen, kein offenes System. Die Prozessorhardware stammt von einem einzigen Hersteller, Intel. Lediglich die Firma AMD hat es geschafft, das Intel-CPU Design nachzuahmen. Auch die Betriebssystem Software liefert ein einziger Hersteller, Microsoft. Insofern ist der PC unter DOS das proprietärste System, das man sich überhaupt vorstellen kann.

Greb: Ich muß Herrn Kemmler Recht geben: Aus NCR-Sicht kann man dann von einem offenen System sprechen, wenn es Standards folgt, etwa von X/Open und IEEE. Außerdem zeichnen sich offene Systeme dadurch aus, daß sie in der Lage sind, auf dem Markt verfügbare Software problemlos und ohne großen Portierungsaufwand von anderen Systemen zu integrieren. Das Maximum, was man sich da vorstellen könnte, wäre Shrink-Wrapped-Software, wie wir sie heute auf dem PC kennen.

CW: Können Standards nicht auch kontraproduktiv, also entwicklungshemmend, sein?

Wollschläger: In der Tat stellen Standards für den Anbieter aber auch für den Benutzer Beschränkungen dar Standardkonformität kann unter Umständen auf Kosten der Effizienz gehen. Beispiel SQL: SQL beschreibt nur die Abfragesprächen, die auf allen Datenbanken

beinhaltet sind, wenn sie ANS/SQL-konform sind. Aber viele Erweiterungen, Innovationen von Unternehmen, Datenbankanbietern oder auch von Anbietern von Computersystemen haben Leistungs- und Effizienzsteigerungen gebracht. Wenn ich all diese leistungsstarken Werk zeuge jedoch nutze, dann bin ich nicht mehr portabel. Als Anwender muß ich mich entscheiden: Will ich größtmögliche Effizienz, oder will ich portabel und standardkonform sein. Hier liegen die beiden Pole.

CW: In nächster Zeit können wir mit echten offenen Systemen also wohl noch nicht rechnen. Nun tut die gesamte Branche aber seit geraumer Zeit so, als gäbe es sie schon. Ein paar Hersteller behaupten ja auch ganz eindeutig: " Wir haben nennen, die Sie nicht unbedingt einem PC-LAN anvertrauen würden?

Zeh: Ich kann sicherlich eine 0 Flugbuchung von Los Angeles t nach San Franzisko auch über ein PC-Netzwerk abwickeln. Das ist technisch möglich. Nur, es ist außerordentlich aufwendig. Flugbuchung ist für mich das typische Beispiel für eine zentrale Anwendung. Andererseits stellt eine reine Textverarbeitung keine Funktion dar, die man opportunerweise auf einen Zentralrechner legt, sondern eine typische Anwendung, die man auslagert. Außerdem spielt die Sicherheitsproblematik eine sehr große Rolle. Ein Netzwerkverbund über PCs hat hohe Sicherheitsrisiken in jeder Hinsicht.

Kemmler: Andererseits stoßen Mainframes, sogar die größten, an die Grenzen ihrer Fähigkeiten. Wir hatten das Beispiel der Flugbuchung: Amadeus ist ja ein trauriges Beispiel dafür, daß irgendwann die Größe einfach zum Hemmnis wird. Aufteilung ist deshalb angesagt. Der klassische Ingenieuransatz: Wenn eine einzelne Aufgabe zu groß ist, muß man sie verteilen.

Wollschläger: Ja gut, aber da müssen Sie sicherstellen, daß Sie auf die gemeinschaftlichen Daten zugreifen können, sonst klappt das nicht.

Kemmler: Wir reden ja nicht davon, was heute ist, sondern was in Drei Jahren sein wird.

Weschenfelder: Sicherlich lassen sich viele Dinge in PC-Netze auslagern. Aber ich warne vor der Einstellung, mit einem Netzwerk, mit Unix- oder DOS-Rechnern liefe alles von selbst und ohne Personal, weil die alle miteinander vernetzt sind. Unsere Netzmannschaft, die sich nur um unser Netzwerk kümmert, um PC-, Leitungs- und Software-Ausfälle oder um die Softwareverteilung, ist mindestens so groß wie die Mannschaft für das Operating.

CW: Aus den USA hört man in Sachen Downsizing ja erstaunliche Dinge: Da portieren Versicherungen und Banken mit Erfolg Mainframe-Applikationen auf Server-Systeme und sparen nach einer Forrester-Research-Analyse bis zu 90 Prozent der Kosten, die bei alten Host-Systemen anfallen. In den USA scheint das möglich zu sein, in Deutschland jedoch nicht. Mir hat in diesem Zusammenhang ein Fachmann gesagt, Deutschland sei ein Mainframe-Land, rechnerhörig, und eigentlich dokumentiere sich in deutschen DV-Strukturen antiquiertes Denken, Hierarchiedenken. Deutsche MIS-Manager und DV-Leiter wollten gar keine offenen Systeme. Sind deutsche Fortschrittsverhinderer?

Kemmler: Wenn man 20 Jahre lang Mainframes betrieben hat, dann hat man auch eine Mainframe-Mentalität. Dabei ist es absolut nicht so, daß man Mainframes braucht, auch nicht bei großen Organisationen. Wir sind im Grunde ein Beispiel für diese Aussage. Es gibt bei uns keine zentrale DV, obwohl wir ein Unternehmen mit immerhin 100 000 Benutzern sind. Aber wir haben keinen Mainframe.

Weschenfelder: Aber Sie haben sehr große Rechner.

CW: Sie haben außerdem ihre VAX 9000 als Mainframe positioniert ...

Kemmler: Aber die ist nicht der große Renner geworden, weil ihre Markteinführung genau in die Zeit gefallen ist, wo der Trend sich gegen den Mainframe entwickelt hat. Was ich sagen will: Man muß heutzutage Organisationen definieren, die sehr flexibel sind. Das ist, glaube ich, bei vielen Unternehmen das Gebot der Stunde. Die Flexibilität der Unternehmen setzt auch eine Infrastruktur voraus, die diese Flexibilität unterstützt. Und Mainframes sind von Natur aus nicht gerade flexibel. Natürlich, warum sollte man bei stabilen Unternehmensstrukturen die Großrechner rausschmeißen? Das, was der Anwender in der proprietären Welt bekommen und zu betreiben, das steht ihm in der verteilten Welt in absehbarer Zeit nicht zur Verfügung.

Zoller: Ich möchte auf den Vorwurf eingehen, deutsche Anwender seien gegenüber amerikanischen in puncto Downsizing rückständig: Die US-Banken nehmen bei weitem nicht so umfangreiche Aufgaben wahr wie wir. Die haben eingeschränkte Zielsetzungen mit 200, 300 Mitarbeitern. Die können durchaus eine Anwendung, eine Kreditsachbearbeitung umschreiben und nachträglich behaupten: "Unsere ganze Bank arbeitet dezentral." Wir hingegen bieten nicht nur Dienstleistungen für das Aktien-, Pfandbrief- oder Bausparwesen an, wir haben alles. Und das muß integriert werden. Da kann man nicht einfach zehn, 20 oder 30 verschiedene Server von verschiedenen Firmen installieren. Deswegen gehe ich davon aus, daß gerade bei unserem Anwendungsspektrum der Mainframe auch in Zukunft vorherrschen wird. Das wird in Amerika auch nicht anders sein.

CW: Sie wollen also sagen, ein wesentlicher Faktor ist die Komplexität der Aufgabenstellung und damit auch der Anwendungen - und solche können mit Großrechnern bewältigt werden?

Zoller: Richtig. Wenn ich in der COMPUTERWOCHE lese, eine amerikanische Bank habe ihre gesamte zentrale DV abgelöst und alles dezentralisiert, habe 50 PCs gekauft und rüste nun auf 150 PCs auf, dann ist das zwar sehr schön. Nur: Wir haben über 2000 Terminals in einem einzigen Gebäude. Wir arbeiten derzeit mit 700 PCs. Wir können nicht 2000 Terminals durch PCs ablösen, alles von heute auf morgen wunderbar vernetzen und hierfür Verteilerräume bauen. So etwas kostet nicht nur eine Million, sondern mehrere Millionen. Außerdem müssen sämtliche Anwendungen umgestrickt werden. Das geht nur in einer dynamischen Entwicklung, die mindestens fünf bis zehn Jahre in Anspruch nimmt.

CW: Deutsche DVer sind Ihrer Meinung nach also umsichtiger als Amerikaner, warten ab, daß Produkte und Standards auch verfügbar sind?

Zoller: Richtig. Daß Deutschland rückständig ist, halte ich für falsch. Die Deutschen gehen eher den sicheren Weg, setzen Pläne stufenweise um, sorgen sich um Übergangskonzepte, um nicht von heute auf morgen pleite zu sein, wie einige Banken in Amerika. Heute fehlen einfach noch Produkte für verabschiedete Standards: Ich denke etwa an Transaktionsprotokoll- oder CMIP-Protokollstandards etc. Wo sind denn diesbezügliche Produkte? Und werden die auch zusammenarbeiten wenn es sie gibt? Das sind Probleme, die die Deutschen sehen Deshalb warten sie ab, daß die Hersteller mit offenen Systemen rauskommen, daß Produkte für Standards rauskommen daß ein richtiges Stufenkonzept existiert. Dann haben sie in zehn Jahren einen Planungsrahmen, der offen ist, in den der

Mainframe eingebunden ist und in dem wirklich alle Systeme zusammenarbeiten. Aber nicht in dem Sinne, daß hier ein DEC-Rechner, dort ein Siemens- oder IBM-Rechner dezentral arbeitet, die nicht miteinander kommunizieren können

Thaler: Diesem flammenden Plädoyer für good old Germany ist fast nichts mehr hinzuzufügen. Nur soviel: Bei uns in Deutschland hat der Investitionsschutz für Anwendungssoftware sicherlich eine höhere Priorität als in Amerika. Zudem wird in Europa dem Thema Integration von Unternehmensanwendungen, also etwa einer einheitlichen Datenbasis, mehr Stellenwert beigemessen als in USA, wo es sehr viele Standalone-Lösungen gibt.

CW: Nun spricht man aber immer von den enormen Kostensurteilen, die durch Downsizing und Unix-Systeme zu erzielen seien. Das sind doch wichtige Argumente für wirtschaftsgeplagte Manager?

Wollschläger: Sehr häufig werden die Kosten für offene Systeme gar nicht direkt gerechnet. Wenn man ausgeht von einem Support-Mann auf je 40 PCs oder Workstations, dann überlegen Sie mal, was das für eine Bank bedeutet: Wieviel tausend Benutzer hängen da an einem Host-System? Und wieviel Support müssen Sie da leisten? Rechnen Sie das mal aus. Außerdem: Fragen Sie sich mal, ob es nicht schwieriger ist, Tausende von PCs zu managen. Mir hat der DV-Manager eines nordrhein-westfälischen Unternehmen, das 2000 PCs installiert hat, gesagt, er brauche zwei Jahre, um eine neue Softwareversion auf alle 2000 PCs zu installieren. Wenn er fertig ist, liegen schon wieder drei neue Pakete da mit neuen Versionen.

Thaler: Großrechner, also zentrale Datenhaltung, oder verteilte Topologien sind für mich keine philosophischen oder dogmatischen Fragen, sondern einfach eine praktische. Klöckner hat 150 Filialen in der ganzen Welt mit Tausenden von computerisierten Arbeitsplätzen. Also fragen wir uns: "Sollen wir alles in einem Rechenzentrum in Duisburg für die ganze Welt betreiben oder verteilt arbeiten?" Da entstehen natürlich technisch und kostenmäßig große Probleme. In unserem Online-Geschäft fallen täglich Millionen Daten und Transaktionen an. Mit einem zentralen Rechenzentrum können Sie eine Mannschaft vorhalten, es ist aber unmöglich, in 140 oder 150 Niederlassungen jeweils noch eine Mannschaft zu etablieren. Das muß operatorlos sein mit entsprechenden Routinen, um die dezentralen Rechner zu betreuen. Die Personalkosten spielen dabei eine wichtige Rolle, außerdem ist es immer ein Vorteil, wenn man die Mannschaft und deren gesamtes Know-how in einem zentralen Rechenzentrum versammelt Von daher spricht vieles für einen zentralen Rechner. Was gegen einen zentralen Rechner spricht, sind zum Beispiel die Übertragungskosten, da schlagen die Tarife der verschiedenen Übertragungsgesellschaften Kapriolen.

Trojan: Ein Argument für Downsizing sind ja offensichtlich die günstigeren MIPS-Preise von PC- und Unix-Systemen im Vergleich zu Mainframes Gemessen an der Nutzungsintensität stellt man jedoch fest daß ein PC vielleicht nur zu zehn Prozent und ein Minicomputer-Mips nur zu 50 Prozent genutzt werden, die Mainframe-MIPS hingegen in der Größenordnung von 80 bis 90 Prozent.

CW: Aus technischer Sicht argumentieren Großrechner-Befürworter auch immer, PC-Verbunde höhnten fundamental wichtige Dienstleistungen nicht zur Verfügung stellen...

Trojan: ... was zutrifft. Ausgereifte Transaktionsmonitore zum Beispiel, die 2000, 3000 Benutzer bedienen können, findet man heute in der offenen Welt nicht. Wo gibt es ausgefuchste Datenhaltungssysteme? Eine Zentrale ist also nach wie vor notwendig, wenngleich man konzedieren muß, daß hier vielleicht nicht der klassische Mainframe die Zentrale der Zukunft darstellt, sondern ein Verbundsystem zwischen dem Mainframe und Applikationsservern.

Greb: Ich kann Ihnen die Frage, wo man Transaktionsmonitore für die offene Systemwelt findet, beantworten: Die USL (Unix Systems Laboratories, eine 100prozentige AT&T Tochter, d. Red.) bietet sowas mit ihrem Tuxedo-TP-Monitor seit mittlerweile zwei Jahren an. Dafür haben über 20 Hersteller Lizenzen erworben. NCR hat ebenfalls einen nach X/Open definierten TP Monitor im Angebot...

CW: ...Schnittstellen zu Tuxedo für IBMs RS/6000 unter AIX hat die Ally Software Corp. (100prozentige Tochter von Unisys, d. Red.) entwickelt, Big Blue selbst arbeitet mit der Transarc Corp. an einem Unix-basierten OLTP-Monitor, die USL portierte Tuxedo auf die Sun-Sparc sowie HP-, DEC Ultrix- und VMS-Architekturen sowie auf das Mainframe-Unix UTS von Amdahl. Der Weg in Richtung Transaktionsverarbeitung mit offenen Systemen ist demzufolge sehr wohl machbar.

Greb: Allerdings.

CW: Nun hat die IBM ja am 5. September 1990 eine neue Losung für ihre Mainframes ausgegeben: Möglicherweise, weil es heutzutage opportun ist, sieht sie ihre Großrechner als Server. Sind sie deshalb per Sprachregelung automatisch in den Rang offener Systeme erhoben?

Thaler: Die Frage ist, wie austauschbar ist ein Server, der ein offenes System unterstützt. Daß der ein Server im klassischen Sinne ist, darüber gibt es überhaupt keine Diskussion. Aber im Kontext offener Systeme sieht es anders aus. Das ist das einzige Problem dabei. Sie können IBM sogar die Daumen schrauben anziehen, weil es da Kompatible gibt.

CW: Client-Server-Strukturen sind also nicht immer gleich Client Server?

Kemmler: Wenn man will, kann man das Client-Server Prinzip total proprietär machen - ganz egal, ob in der Digital-, der IBM-, der NCR- oder der HP-Welt. Client Server Computing läßt sich aber auch mit einer gemischten Umgebung, also teils offen, teils proprietär, realisieren. Das ist dann der Mainframe Ansatz. Die dritte Möglichkeit ist, Client-Server generell auf offene, definierte Standards zu stellen. Und das ist eigentlich das was den Kunden letztendlich interessiert. Client-Server-Computer kann er sehr teuer erstehen, und er wird sie in Zukunft sehr billig haben können. Das ist keine Frage von Mainframe oder nicht Mainframe, sondern eine Frage der offenen Standards.

Wollschläger: Das sehen Sie zu einfach. Wir müssen doch alle Aspekte, also die Sicherheit, das Management und den Service von Systemen berücksichtigen. Und dann sollten Sie die Preise mal nebeneinander legen. Da stellen Sie vielleicht fest, daß unter Umständen die billig gekaufte Hardware nicht unbedingt einen Preisvorteil hat.

Kemmler: Die Software wird aber auch viel billiger. Was kostet denn eine MVS- oder meinetwegen eine VMS Lizenz im Vergleich zu einer Unix-Lizenz? Da liegen doch Welten dazwischen!

Wollschläger: Wenn Sie mit einem MVS-Rechner in einer Sparkasse 10 000 Benutzer betreuen, dann sieht das anders aus, als wenn Sie mit einem Unix-Rechner 258 Benutzer bedienen. Sie müssen auch die zusätzlichen Nebenkosten berücksichtigen.

Kemmler: Ja sicher. Aber der Markt für MVS Rechner ist doch kleiner als der für offene Systeme.

CW: Wir sollten noch einmal gezielt auf Unix eingehen. Wir vertreten die Meinung: Unix stellt für den Anwender eine akzeptable, weil nicht proprietäre, sondern von allen ernst zu nehmenden Bestellern angebotene Betriebssystem-Plattform dar, die Grundlage offener Systeme sein wird Was halten Sie von dieser Sicht?

Holtmann: Auch wenn die öffentlichen Verwaltungen sowohl in den USA als auch in Europa Unix empfehlen, so ist das eine Empfehlung und keine Bindung. Hintergrund hierfür ist, daß Unix von unterschiedlichen Herstellern angeboten wird. Trotz der Entscheidung für das eine oder andere Unix Derivat muß sich der Anwender jedoch bewußt sein, daß er mit der jeweiligen Variante genauso abhängig ist wie zuvor. Er muß ganz im Sinne des von Herrn Thaler vorhin Gesagten für sein Unternehmen unter Verzicht auf Einzelvorteile firmeneigene Standards kreieren. Dann hat der Anwender bei Unix aus der heutigen Sicht die Möglichkeit unabhängig zu sein. Das heißt dann kann er die Hard und Software von unterschiedlichen Herstellern einkaufen.

Weschenfelder: Unsere Erfahrung zeigt leider, daß Unix nicht gleich Unix ist. Außerdem fehlen noch eine ganze Menge an Funktionen sowohl software- als auch hardwaremäßiger Art, die wir heute im DOS- und OS12-Bereich im Netzwerkverbund schon haben. Ich denke da etwa an das Abschließen von Systemen und den Schutz vor Viren. Zudem gibt es auf dem Markt gerade für den Versicherungsbereich eine ganze Menge an Software, die im Netzwerk zur Zeit leider nur unter DOS oder OS12 läuft, nicht aber unter Unix. Aber wir beobachten die 4 weitere Entwicklung von Unix sehr interessiert, weil wir eines Tages vielleicht doch ins Auge fassen, auf Unix umzusteigen - zur Zeit allerdings sicherlich nicht. Host-seitig sehe ich zur Zeit keine Chance, daß wir uns in puncto Betriebssystem von unserem Hersteller trennen. Wir haben eben eine sehr lange DV-Vergangenheit. Und die heute von uns benutzte Anwendungssoftware steht uns unter Unix auch in Zukunft - zumindest mit der gewohnten Leistungsfähigkeit - nicht zur Verfügung.

Zoller. Offenheit und Unix gleichzusetzen ist meiner Meinung nach nicht richtig. Offenheit bedeutet den breit gefächelten Kommun-Rechnern. Unter Unix versteht man meistens jedoch die Portabilität, und das ist etwas anderes als Offenheit. Unix ist nicht offen, weil man Unix-Rechner nicht in beliebige Netze, etwa Token-Ring-Netze, einbinden kann. Außerdem gibt es nicht eine, sondern zehn, 15 und mehr Unix-Versionen sowie verschiedene Unix-Schnittstellen Keine Schnittstelle stimmt mit der anderen überein, da gibt es schon das erste Problem der Portabilität. Zudem reichen Unix-Rechner von der Leistung doch noch nicht in Großrechner-Bereiche hinein. Und für einen PC sind sie noch etwas zu teuer. Deswegen kann ich also kategorisch sagen, Offenheit ist nicht gleich Unix. Für uns sind zudem einzig und allein Anwendungen wichtig: Wir kaufen nicht einen Unix-Rechner und schreiben unsere Anwendung selbst, sondern wir kaufen die Anwendung und damit kaufen wir dann auch den Unix-Rechner.

Trojan: Ich sehe im Betriebssystem Unix die einzige Chance der DV-Industrie und auch der Anwender, eine wirkliche Offenheit zu erreichen. Unix hat ja heute schon eine Reihe von Vorteilen: Es gibt dem Benutzer die Freiheit in der Wahl des Hardwareherstellers, der Anwender hat die Freiheit, System- und Anwendungssoftware sowie Protokolle auszuwählen. Mit Sicherheit gilt es noch, den einen oder anderen Schwachpunkt bei Unix auszumerzen. Zu denken ist an Sicherheitsaspekte. Bei TP-Monitoren sind erste Ansätze bereits erkennbar. Deren Qualität kann sich zwar noch nicht mit der von Host-Systemen messen, doch hatten die auch einen Entwicklungsvorlauf von 20, 30 Jahren. Wenn man die Sicherheitsfragen und den Zugriffsschutz in den Griff bekommt - wobei dahingehende Entwicklungen bei der OSF ja bereits auf den Weg gebracht sind -, wird aus meiner Sicht Unix die Betriebssystem-Plattform sein, die sich langfristig durchsetzt. Zumindest im mittleren Rechnerbereich, vielleicht aber sogar im Bereich der kleinen Mainframes.

Zeh: Wie wir schon gehört haben, kann man Unix nicht gleich Offenheit setzen, denn es gibt auch andere Systeme, die offen sind. Dennoch sind wir fest davon überzeugt, daß Unix in hohem Maße Offenheit gewährleisten wird, und dafür gibt es einige Gründe. Zunächst handelt es sich bei Unix um ein System, dem nicht der Geruch eines bestimmten Herstellers anhaftet. Es ist in einer Forschungsumgebung entstanden und steht jedermann mehr oder weniger zur Verfügung. Ein weiterer wesentlicher Punkt, der für Unix spricht, scheint mir zu

sein, daß es technisch geeignet ist, ein offenes System zu sein: Es handelt sich nämlich um ein System, das nur mit einem sehr kleinen Teil auf physikalische Spezifika, also auf Hardwarespezifika Rücksicht nimmt. Das ist meines Erachtens ein wesentlicher Punkt. Der andere wichtige Aspekt ist, daß bei Unix erstmals eine gravierende Beschleunigung der Standardisierungsvorhaben stattgefunden hat. Das heißt, von den verschiedenen internationalen Gremien, an denen wir alle aktiv mitarbeiten, wurde die Forderung nach Standards als eine Chance erkannt und genutzt. Aus diesen Gründen ist die Behauptung richtig, Unix gewährleiste in sehr hohem Maße Offenheit.

Greb: Als NCR sich zu offenen Systemen bekannt hat, entschied man sich auch, ein am Markt verfügbares Standard-Betriebssystem zu nehmen. Das heißt Unix. Und so wie wir denkt eine ganze Reihe von Herstellern am Markt. Wir glauben, daß wir mit der Verwendung von am Markt verfügbaren Standardkomponenten wesentlich geringere Entwicklungskosten haben und mit unseren Produkten jeweils sehr schnell präsent sein können. Vorteil für den Anwender: Die geringeren Entwicklungskosten können wir über die Preise natürlich an die Kunden weitergeben. Wir sehen auch, daß durch die Entwicklung in der Mikroprozessor-Technologie in den nächsten sechs bis sieben Monaten Systeme am Markt erscheinen werden, die aufgrund ihrer Multi- und Parallelprozessor-Technologie sehr wohl in den Leistungsbereich der traditionellen Mainframes vorstoßen werden. Ich glaube, daß die Anwenderakzeptanz von Unix dann gegeben sein wird, wenn Unix in seiner fortgeschrittenen Form all die Elemente erfüllt, die in einer vertrauten Mainframe-Umgebung zur Verfügung stehen, wie sie der Benutzer heute kennt. Sei es vom Aspekt der Sicherheit, Monitoren sowie des System-Managements.

Wollschläger: Für mich ist Offenheit mehr als nur Unix. Ich bestätige aber, daß die Diskussion um offene Systeme mit Unix begonnen hat, und Unix auch eine Reihe von guten, offenen Schnittstellen hat. Für mich bedeutet die Problematik offener Systeme eine Frage der Einhaltung von Standards und der veröffentlichten, verfügbaren sowie allgemein nutzbaren Schnittstellen. Da hat Unix in verschiedenen Bereichen noch einiges vor sich. Ich sehe allerdings für die Themen Transaktions Prozessing und Sicherheit etc. im Verbund mit anderen Systemen gute Möglichkeiten, daß Unix sich weiterentwickelt. Ich bin der Überzeugung, daß wir in Zukunft wahrscheinlich zwei an Standards sich orientierende Unix-Systeme haben werden: einmal das von Unix International, zum anderen das von der OSF. Beide haben sich jedoch - und das ist der große Vorteil - verpflichtet, sowohl Posix- als auch X/Open konform zu sein. Ich bin jedoch der Meinung, daß in Zukunft die anderen herstellerspezifischen und Anwendungs- und Hardware-orientierten Betriebssysteme ebenfalls auf eine Menge offener Schnittstellen werden verweisen können. Mit ihrer Service- und Netzunterstützung sind sie dann möglicherweise in der Lage, die Unix-Systeme mitzuverwalten, wenn sie im gleichen Verbund miteinander arbeiten. Für mich ist Unix deshalb nicht das einzige offene System, jedes andere System ist meiner Ansicht nach aufgrund von Standards ebenso offen gestaltbar.

CW: Meine Herren, ich bedanke mich für das Gespräch.