Serie:Offene Systeme, Client-Server, Downsizing (Teil 1)

Die Zukunft offener Systeme heißt New Way of Computing

04.10.1991

Die Zeit ist reif. Das Bewußtsein der Menschen, die technischen und organisatorischen Möglichkeiten der Unternehmen sowie die internationalen wirtschaftspolitischen Rahmenbedingungen haben einen Stand erreicht, der den Unternehmenslenkern ein Verharren in altüberlieferten Vorgehensweisen nicht mehr gestattet. Wie diese "neue Zeit" in praxi aussehen kann, läßt sich nicht zuletzt am Beispiel der NCR und ihrer Leistungspalette ablesen.

Der Schwerpunkt der folgenden Ausführungen liegt auf einem der wichtigsten Faktoren unserer Zukunft, auf dem "New Way of Computing", unter dessen Protagonisten die NCR einen herausragenden Platz einnimmt.

Die völlig neuen Einsatzperspektiven und Nutzendimensionen im Bereich der Informationsverarbeitung, darunter die Realtime-Verfügbarkeit von Informationen, setzen eine andere technische Basis voraus, als die herkömmliche Rechnertechnik sie zu bieten vermag. Am Anfang des New Way of Computing standen für die NCR daher vier Ideen:

- Man nehme zum Bau von Computern nur noch (die inzwischen äußerst leistungsfähigen) Mikroprozessoren.

- Man konzentriere sich im Interesse der Wirtschaftlichkeit auf offene Systeme und Standard-Betriebssysteme.

- Man etabliere ein Cooperative Computing und nutze damit die Möglichkeit, "allgemeine" Daten und Programme auf Servern, benutzerspezifische dagegen auf Client-Systemen zu halten.

- Man baue eine Software-Integrationsumgebung und eine Open Networking Environment auf, komplettiere damit die neue Welt der Informationsverarbeitung und biete dem Anwender den gleitenden Übergang in sie an.

Diese Ideen signalisieren Wandel. Mit dem New Way of Computing und dem Aufstieg der Client-Server-Architekturen ist der Abschied von monolithischen Mainframe-Strukturen verbunden. Relationale Datenbanken setzen sich durch. Einfache SQL-Abfragen lösen die unsäglichen Batch-Reports ab. Hierarchische Netzwerke verschwinden. Proprietäre Software verliert zusehends Marktanteile. Mikroprozessor-MIPS gewinnen Marktanteile auf Kosten teurer Mainframe-MIPS. Anwendungen werden deskriptiv generiert, nicht mehr "von ganz unten an" fehlerträchtig entwickelt.

Damit sind wichtige Grundlagen geschaffen, um die betriebliche Informationsverarbeitung endlich von ihrer tendenziell eingleisigen, stark nach rückwärts gewandten Arbeitsweise abzubringen und ihr Felder zu eröffnen, auf denen sie dem Anwender unvergleichlich viel mehr Nutzen bringt: in unternehmensübergreifenden und grenzüberschreitenden Applikationen sowie in der strategischen und operativen Planung.

Wesentlicher Baustein dieser integrativen und nach vorne gerichteten Informationsverarbeitung ist die Verfügbarmachung möglichst aller Unternehmensdaten - auch der Bilddaten. Angesichts der Tatsache, daß ein Unternehmen heute im Durchschnitt auf gerade mal zwei Prozent seiner Daten on-line zugreifen kann und in Erwartung der Datenexplosion, die mit dem Image Processing einhergeht, ist damit unzweifelhaft: Die Anwender benötigen ein Vielfaches der heute üblichen Rechner- und Speicherkapazitäten.

Für den Unternehmensorganisator kristallisiert sich in jüngster Zeit die Erkenntnis heraus: Organisationsstrukturen unterliegen von seiten der DV keinen Zwängen und Einschränkungen mehr. Im Gegenteil - die Informationsverarbeitung ist in der Lage, jede Form von Organisation voll zu unterstützen; damit also auch die für ein Unternehmen optimale Organisation.

In der Mehrzahl der Fälle ist nach vorherrschender Expertenmeinung ein Höchstmaß an Wirtschaftlichkeit und Mitarbeitermotivation durch eine dezentrale Organisation zu erreichen. Diese Organisationsform wird mittlerweile durch Systemkonzepte unterstützt, die sich beispielsweise unter Schlagworten wie Client-Server-Architektur und Downsizing am Markt durchsetzen. Gerade die enormen Kosteneinsparungen beim Erwerb und der Wartung der betreffenden Hardware, aber auch der inzwischen erreichte Reifegrad von Unix veranlassen immer mehr Anwender, ein Downsizing zu vollziehen.

Bei der Systemplanung und -implementierung ist davon auszugehen, daß es zwei Grundtypen von Benutzern gibt: zum einen die Topmanager, die sich vom System logistische Unterstützung für ihre planerischen und strategischen Arbeiten holen, zum anderen die Mitarbeiter, die vornehmlich auf der operativen Ebene agieren und effiziente, ergonomische Arbeitsmittel haben wollen.

Die Informationsarchitektur ist so auszurichten, daß sowohl den generellen Anforderungen (Textverarbeitung, Dokumentenverwaltung, Electronic Mail) als auch den speziellen Aufgaben, etwa einer Sekretärin, eines Controllers, Systemadministrators oder eines Topmanagers entsprochen werden kann. Änderungen räumlicher oder sachlicher Art (Beförderungen, Versetzungen) muß das System ohne jeglichen Verlust an Komfort und Effizienz verkraften.

Weil sie alle diese Anforderungen auf besonders wirtschaftliche Weise erfüllt, ist die Client-Server-Architektur auf breiter Front auf dem Vormarsch. Von den Servern aus werden den Arbeitsplätzen (Clients) Desktop-Anwendungen, wie Textverarbeitung. Tabellenkalkulation, Präsentationsgrafik etc., und Dienste, zum Beispiel Drucken, Mailbox und Electronic Mail verfügbar gemacht.

Der Vorteil dieses Konzepts besteht darin, daß über das Datennetz eines Unternehmens Rechnerleistung, Speicherkapazität und Anwendungen kostengünstig verteilt und ausschließlich den autorisierten Benutzern zur Verfügung gestellt werden können. Auch in der Software-Entwicklung ergeben sich via Softwaremodularisierung erhebliche Produktivitätseffekte.

Vernetzte, kooperative Informationsverarbeitung steht übrigens nicht a priori im Gegensatz zum herkömmlichen Rechenzentrum. Zwar übernehmen immer mehr Aufgaben lokale Systeme, doch werden auch die Rechenzentren ein überaus starkes Wachstum ihrer Rechner- und Speicherkapazitäten verzeichnen. Ursache dafür sind vor allem die immer größeren zentralen Datenbanken und die an Umfang zunehmenden Aufgaben der sicheren Datenhaltung und -verteilung.

NCRs neue Produktlinie "System 3000" ist ein einheitliches Hardwarekonzept auf Unix- und Intel-Prozessor-Basis. Ergänzend dazu bietet NCR "Cooperation", die Software mit dem Prinzip des Distributed Repository zur unternehmensweiten Informationsverarbeitung, und "One" (Open Networking Environment) für den Informationstransport an. Diese Hard- und Softwarekomponenten sind die Basis des Open Cooperative Computing (OCC) und repräsentieren eine offene Systemwelt, die auf normalen Migrationspfaden erreichbar ist. Drei Säulen tragen das OCC-Konzept. Seine Realisierung erfolgt nach Regeln und Verhaltensweisen, die im Architekturmodell OCCA (Open, Cooperative Computing Architecture) niedergelegt sind.

Erste OCC-Hauptkomponenten sind die offenen Hardwaresysteme; die zweite wird von den "kooperativen Funktionen" verkörpert (den Added Values), darunter die Möglichkeit des transparenten Zugriffs auf unternehmensweite Ressourcen in einem Multivendor-Umfeld. Als weitere Funktionen seien hier Projekt-Management, Migration Planning, Business Information Planning sowie Systems Analysis and Design genannt.

Dritte OCC-Hauptkomponente ist die Fokussierung auf den Endanwender. NCR hat im OCC-Konzept eine möglichst "natürliche" und an der Intuition orientierte Benutzerführung realisiert.

Das System 3000 umfaßt in End-to-end-Philosophie folgende sieben Leistungs- beziehungsweise Maschinenklassen:

3100: Mobile und tragbare Computer;

3200: kleinere Arbeitsplatz-Systeme mit kleiner Stellfläche und limitierten Erweiterungsmöglichkeiten;

3300: hochleistungsfähige, erweiterbare Desktop-Arbeitsplatz-Rechner;

3400: Server oder Abteilungsrechner mit skalierbaren, enggekoppelten Multiprozessor-Systemen;

3500: Großrechner mit skalierbarer, symmetrischer Multiprozessoren-Architektur; Server oder Abteilungsrechner-Funktionen;

3600: Großrechner mit bis zu 288 lose gekoppelten Parallelprozessoren;

3700: Größtrechner (massiv-parallele Systeme) mit bis zu 4096 Prozessoren.

Die neuen Systeme bauen auf Intel-Mikroprozessoren auf und setzen Unix V.4 als strategisches Betriebssystem ein. Ihre Leistungsskala reicht von 7,5 bis über 200 000 MIPS. Mehrere Modelle auf fünf der sieben Leistungsstufen wurden bereits zum Vertrieb freigegeben.

Neben dem Leitgedanken der Skalierbarkeit sowohl der Kompatibilität als auch der Prozessorleistung über alle "Seven Levels of Computing" hinweg spielten bei der Entwicklung des Systems 3000 einige weitere Aspekte eine wichtige Rolle:

- Ein einheitlicher, auf neuester Intel-Prozessortechnologie basierender Instruktionssatz sichert die Objektkompatibilität.

- Der Einsatz von Unix V.4, SCO Unix, OS/2 und MS-DOS als Betriebssysteme schafft den Zugriff auf rund 40 000 verfügbare Applikationen.

- Die Industriestandard-Schnittstellen (Beispiele: Small Computer Systems Interface [SCSI] und Micro Channel Architecture [MCA]) erschließen die große Breite hochleistungsfähiger Peripheriesysteme mit MCA-kompatiblen Add-on-Controllern .

- Die Nutzung der Disk-Array-Technologie bietet neue Leistungsperspektiven für den Einsatz von Plattenspeichern.

- Die Systemarchitektur nutzt gezielt die Vorteile dreier Prozessorkonzepte (Ein-Prozessor, enggekoppelte Multiprozessoren, lose gekoppelte Parallelprozessoren).

Mit Cooperation, der zweiten OCC-Säule, präsentiert NCR ein unternehmensweites DV-Konzept aus über 50 Modulen. Cooperation wirkt auf allen organisatorischen Ebenen produktivitätssteigernd und schützt bisherige Investitionen. Auf die Cooperation-Features kann hier nicht im einzelnen eingegangen werden.

NCRs Open Networking Environment als dritte Säule des OCC-Konzepts ist ein Paket aus bewährten Softwareprodukten, mit deren Hilfe in einem von der DV-Industrie bisher nicht erreichten Maße End-to-end-OSI-Netzwerklösungen realisierbar werden.

Vorurteilsbeladene Unix-Kritiker werfen immer wieder die angebliche OLTP-Schwäche dieses Betriebssystems in die Waagschale. Mit dem Monitor "Top End" kann NCR die Haltlosigkeit ihrer Argumentation eindeutig beweisen.

Top End ist eine speziell für den kommerziellen Einsatz entwickelte Transaktions-Management-Software, die dem Anwender die Integrität und Sicherheit des immens steigenden Datenverkehrs zwischen PCs, Workstations und Host-Rechnern (auch hierarchisch-proprietären) nachweislich garantiert.

Top End verfolgt den Auslastungsgrad jeder einzelnen Anwendungskopie und leitet neue Anfragen an die am wenigsten ausgelastete Stelle weiter. Durch diese flexibel-dynamische Konfiguration ist sichergestellt, daß Ressourcen genau dann und genau dort zugewiesen werden, wo sie benötigt werden.

Der Top-End-Anwender kann im Einklang mit dem derzeitigen Entwurf des X/Open-Modells für Distributed Transaction Processing OLTP/DBMS-Anwendungen für Unix-Server entwickeln, die in Netzen unter Protokollen wie OSI, TCP/IP oder Netbios eingesetzt werden. Nicht nur nach Meinung der NCR hat Top End alle Eigenschaften, um Unix als Betriebssystem zur Unterstützung großer und größter OLTP-Systeme (so etwa Reisebuchungs- und Reservierungssysteme) zur ersten Wahl zu machen.

*Manfred Greb ist Produkt-Marketing-Manager für General Purpose Products bei der NCR GmbH, Augsburg.