Verteilte Informationsverarbeitung als Schlüssel zum Erfolg

Informationen müssen näher an den Endanwender heran

04.10.1991

Der Wettbewerb in der heutigen Geschäftswelt steigt enorm. Die Einführung des europäischen Binnenmarktes, die Öffnung zum Osten sowie die japanisch-amerikanische Herausforderung sind wesentliche Einflußfaktoren. Sie beeinträchtigen die wirtschaftliche Entwicklung und verlangen nach neuen Ideen in der Organisation und in der Führung der Unternehmen. Insbesondere durch Unternehmenszusammenschlüsse wird die Informationsverarbeitung vor neue Aufgaben gestellt.

Heterogene Systemwelten, geographisch verteilte Datenverarbeitungszentren und steigender Informationsbedarf bilden eine echte Herausforderung an die Informationstechnologie.

Um die Aufgabe eines besseren Kundenservices im Wettbewerb effizient erfüllen zu können, müssen die Informationen immer näher an den Endbenutzer herangeführt werden. Nur so können die Unternehmen schneller auf die Bedürfnisse ihrer Kunden eingehen und damit Vorteile im Markt erlangen. Darüber hinaus müssen Kosten eingespart werden. Es gilt, die getätigten Investitionen zu schützen und gleichzeitig weiter darauf aufbauen zu können.

Das Beste aus zwei Welten

Um den Informationsbedürfnissen der 90er Jahre gerecht zu werden, müssen sich die Informationssysteme der Unternehmen immer stärker an die verteilte Informationsverarbeitung, das Distributed Computing, anpassen. Zentralisierte Online-Transaktionsverarbeitungssysteme müssen erweitert werden um verteilte, offene Systemverarbeitungswelten. Dabei gilt es, das Beste aus beiden Welten zu nutzen.

Anwender wollen Flexibilität und Freiheit in der Auswahl ihrer Informationsverarbeitungssysteme. Sie wollen einerseits bestehende Investitionen schützen und andererseits von den Stärken zukünftiger Technologien profitieren. Das Informationssystem eines Unternehmens soll in modularer Art wachsen können und an neuen Technologien partizipieren.

Je mehr jedoch das Informationssystem wächst, um so größer wird das Bedürfnis nach integrierter Kontrolle der verteilten Informationen und Ressourcen. Damit verbunden ist die Forderung nach erhöhter Produktivität, Verfügbarkeit und Sicherheit der Informationsverarbeitung. Zusätzlich erwarten die Anwender folgende Bausteine, die sie beim Aufbau von verteilten Informationsverarbeitungssysteme unterstützen:

- verteilte Datenbanken

- verteilte Transaktionsverarbeitung

- Multimedia Anwendungen und grafische Benutzeroberflächen.

Die Antwort von Bull auf diese Herausforderung ist das "Distributed Computing Modell".

Mit dem Distributed Computing Model werden DV-Anwender in die Lage versetzt, ihre bestehende herstellergebundene (proprietäre) Systemumgebung nahtlos in eine verteilte Informationsverarbeitung mit offenen Systemen zu integrieren.

Ausgangspunkt ist der Benutzer, der über seinen Arbeitsplatzcomputer Zugriff auf alle für ihn relevanten Informationen im Unternehmen bekommt, gleichgültig auf welchem System oder an welchem Ort sie physisch verarbeitet werden. Eine weitere wichtige Zukunfts-Perspektive für Anwender und Software-Entwickler: Durch konsequenten Einsatz internationaler Standards werden getätigte Investitionen geschützt und der Aufbau offener Systeme gefördert.

Das Distributed Computing Model ist offen, weil es auf einem umfassenden Satz von De-facto- und De-jure-Standards aufbaut, damit Systeme von Bull auf effektive Weise mit Systemen anderer Hersteller kommunizieren können. Es ist logisch verteilt, weil es verschiedene Grade von Zentralisierung und Dezentralisierung auf Basis des Client-Server-Prinzips anbietet und damit dem Kunden die Freiheit überläßt, wie die vorhandenen Systemressourcen zuzuordnen sind.

Das Modell berücksichtigt damit das wachsende Bedürfnis nach integrierter, unternehmensweiter Informationsverarbeitung vom Arbeitsplatz über verteilte Server bis hin zum Unternehmensrechner.

Das Modell besteht aus einer Summe von Spezifikationen, die in ihren einzelnen Elementen jeweils Services beschreiben, die bestimmte Funktionen in dem Gesamtmodell zu erfüllen haben. Folgende Elemente bilden das Gesamtmodell:

- Anwendung

- Anwendungsservice

- Verteilungsservice

- Kommunikationsservice.

Die Anwendung stellt das Hauptelement in dem Modell der verteilten Informationsverarbeitung dar. Sie ist logisch getrennt von den dazugehörigen Computing Services.

Dabei ist es unerheblich, ob die Anwendung individuell entwickelt oder ein Standardpaket von einem Hersteller oder einem Softwarehaus bereitgestellt wird. Die Implementierung kann über die entsprechenden Entwicklungswerkzeuge auf dem jeweiligen Zielsystem problemlos erfolgen. Durch die Trennung von Anwendungen und den dazugehörigen Services ist die Integration in bestehende Anwendungswelten und die Entwicklung in neue Anwendungsumgebungen sehr flexibel möglich.

Der Service erfolgt auf verteilten Servicestationen

Diese Komponente besteht aus leistungsfähigen Services, welche die Anwendung auf unterschiedlichste Weise unterstützen. Zugriff auf Datenbanken, Einsatz von elektronischer Dokumentenarchivierung und Verwaltung, elektronischer Datenaustausch, verteilte Transaktionsverarbeitung oder grafische Aufbereitung der eigentlichen Anwendung sind die wesentlichen Elemente dieses Services.

Auch hierbei ist unwesentlich, ob dieser Service vom Hersteller, von Softwarehäusern oder individuell implementiert wird. Ein entscheidender Faktor ist jedoch, daß dieser Service nicht notwendigerweise auf einem System, sondern auf verteilten Serverstationen erfolgen kann.

Transparente Verteilung von Computerfunktionen

In der Praxis bedeutet das, daß ein lokales System eine grafische Darstellung bereitstellt, während von einem entferntstehenden Server gedruckt, wieder auf einem anderen Rechner für den spezialisierten Datenaustausch hingegen die Rechnung erstellt wird. Ein Transaktions-Verarbeitungssystem nimmt auf dem Unternehmensrechner die entsprechenden Veränderungen in der Datenbank vor. Die Anwendung kann also unabhängig von benötigten Services und Datenhaltungs- und Verwaltungsaufgaben realisiert werden.

Dieser Service bietet die transparente Verteilung von Computerfunktionen im gesamten Informationsnetzwerk. Dabei handelt es sich im einzelnen um die Integration von Services wie Naming-Service, verteilte Dateien und Anwendungen sowie Resource Sharing.

Dies ist die erste Stufe des Kommunikationsangebotes der OSF, das auch die Basis des zukünftigen Bull-Portofolios in diesem Bereich sein wird. Mit der Implementierung von Standard-Verteilungs-Services (OSF/ DCE) auch in heterogenen Rechnerwelten wird die transparente Verteilung von Computer-Ressourcen in einem unternehmensweiten Verbund zur Realität.

Diese Komponente bietet die Infrastruktur für den tatsächlichen Datentransport und die Verarbeitungsleistungen der in der verteilten Informationsverarbeitung zusammengeschlossenen Systeme. Bisher stellte dieser Service die Grenze der Softwareintegration dar. In dem Modell der verteilten Informationsverarbeitung wird dieser Service als die Basis für Verteilungs- und Anwendungsservices vorausgesetzt.

Gilt für lokale und öffentliche Netze

Es ist unerheblich, ob es sich um ein lokales Netzwerk handelt oder ob ein öffentliches Netz genutzt wird. Architekturen und Protokolle basieren auf Standards und werden auf den Systemen implementiert, die den Anforderungen am besten hinsichtlich Verarbeitungsleistung und Kommunikationsfähigkeit entsprechen.

Das Modell zum Aufbau und zum Betrieb der verteilten Informationsverarbeitung berücksichtigt drei grundlegende Schlüsselrollen:

- Endbenutzer

- Anwendungsentwickler

- Systemverwalter.

Jede von ihnen hat spezifische Anforderungen und Bedürfnisse, aber alle beziehen sich auf das gleiche System, das als Basis für ihre Arbeit dient.

Arbeitsmittel am Arbeitsplatz

In dem Modell der verteilten Informationsverarbeitung fordert der Endbenutzer von seinem System Informationen, die mit möglichst einfachen und komfortablen Mitteln bereitgestellt werden. Er möchte sich seiner Arbeitsmittel am Arbeitsplatz bedienen. Der PC mit den heute üblichen Anwendungen (Tabellenkalkulation, Datenbanken, Textverarbeitung) und anwenderfreundlichen Mensch-Maschine-Schnittstellen (Maus und Fenstertechnik) setzt dabei die Maßstäbe.

Für den Anwendungsentwikler bedeutet das Modell die Möglichkeit der Nutzung von leistungsfähigen und anwendungsaktivierenden Werkzeugen, um damit je nach Aufgabenstellung losgelöst von der Hardwareumgebung die beste Lösung bereitzustellen.

Der Systemverwalter legt den Schwerpunkt bei der Betrachtung des Modells auf das System-Management und die Sicherheit. Er sieht das Informationssystem als Ganzes. Durch ein integriertes Kontroll- und Sicherheitssystem soll der reibungslose und fehlerfreie Betrieb des Gesamtsystems gewährleistet werden.

Im wettbewerbsstarken Umfeld der 90er Jahre liegt der Geschäftserfolg der Unternehmen und Organisationen mehr denn je in der Nutzung verteilter Informationsverarbeitung.

Das beschriebene Modell bildet eine solide Basis, um die heutigen und zukünftigen Geschäftsprobleme zu lösen. Es werden Vorteile aus den verteilten Systemen auf Grundlage von Normen und Standards gezogen und gleichzeitig die getätigten Investitionen in die vorhandenen Anwendungen durch die transaktionsorientierten Verarbeitungssysteme aufgewertet.

Die flexible Verteilung von Daten- und Verarbeitungsquellen in einem Informationsnetzwerk ist der Garant für den Erfolg.

Auf Basis des Distributed Computing Model ermöglicht die Bull Gruppe ihren Kunden und Interessenten die Realisierung langfristig angelegter Konzepte auf der Basis verteilter Informationsverarbeitung. Sie garantiert ihnen damit eine auf die Zukunft angelegte Unternehmensentwicklung.

*Gundolf Heringhaus ist Produktmanager Netzwerkrechner bei der Bull AG.