Thema der Woche

Vorwärts in die zentrale Datenverarbeitung

30.05.1997

DV-Leiter und ihre Chefs werden aufstöhnen, wenn Bloor erneut einen Paradigmenwechsel fordert. Hatte man nicht mühsam den Wechsel auf das Client-Server-Modell bewerkstelligt, alle PCs im Unternehmen vernetzt und den Mainframe durch (Abteilungs-)Server ersetzt, sich um passende Software bemüht und das Management der verteilten Systeme mühsam organisiert? Und nun sollen der Mainframe entstaubt und die alten Terminals aus dem Keller geholt werden?

Bloor weiß, daß seine Forderung nach einer Rückkehr zum zentralistisch ausgerichteten DV-Modell, die Erinnerung an das alte unflexible Mainframe-Rechenzentrum wachruft, in dem die Entwicklungen träge vor sich hin dümpelten und der Anwender allzu oft als Störenfried angesehen wurde. Diese Vergangenheit will er nicht wieder aufleben lassen. Dennoch beschwört er eine Situation, in der "ein zentraler Server-Komplex die wesentliche Quelle für alle Daten und Prozesse ist, und von der aus sie auch verteilt werden."

Das Client-Server-Computing wurde, historisch gesehen, Notwendigkeit, da selbst die leistungsstärksten Mainframes in großen Organisationen nicht mehr in der Lage waren, die steigenden Anforderungen nach Rechenleistung abzudecken. So sei es bereits vor Einführung der PCs zu einer Fragmentierung der Computerlandschaft durch Minicomputer für Spezialaufgaben gekommen, konstatiert der Analyst.

Schwer wog auch, daß die zentrale DV von einigen wenigen Anbietern, allen voran der IBM, beherrscht wurde. Sie nutzten ihre Monopolstellung weidlich aus. Die Anwender wollten sich aus solcher Umklammerung befreien, das Schlagwort der "offenen Systeme" beherrschte die Diskussion und mit ihm die Forderung nach verteilter Datenverarbeitung.

Von da ab fand technologischer Fortschritt vor allem im Client-Server-Computing statt; den DV-Leitern war es kaum mehr gestattet, am zentralen Modell festzuhalten. Der Erfolg des PCs verschärfte diesen Trend. Der boo- mende Markt konnte nicht ignoriert werden; der PC fing an, die Industrie zu dominieren. Verteiltes Denken wurde zur Gewohnheit.

Die Peer-to-peer-Verarbeitung, in der jede Domain lokal verwaltet wird, ist in vielen Fällen - dank der in den Unternehmen installierten Infrastruktur - zur alltäglichen Praxis geworden. "Sie hat sich einst als Norm selbst festgelegt und wuchert nun überall", stellt Bloor fest und weiter: "Bis vor kurzem gab es dazu keine Alternative."

Erst seit der Entwicklung von Java eröffnen sich neue Möglichkeiten, die mit der Präsentation der Netzwerk-Rechner abgerundet werden. Bloor vergleicht die Kontroverse zwischen Client-Server- und zentraler Datenverarbeitung mit der unterschiedlichen Weltsicht zwischen Ptolemäus und Kopernikus. Ähnlich wie im Weltbild des Ptolemäus die Erde im Zentrum des Universums stand, sei in der DV der PC an diese Stelle gerückt. Um diese Systeme zu erweitern - also Planeten und Monde hinzuzufügen - müßten ebensolche Klimmzüge unternommen werden wie beim Client-Server-Modell: Das Ptolemäische System ist nicht skalierbar.

Bloor ist darüber nicht erstaunt, denn er hält es schlichtweg für falsch, da das verkehrte Objekt - der PC - im Mittelpunkt der Überlegungen steht. Mit dem Auftauchen von Java sei nun eine kopernikanische Sichtweise möglich geworden, die dem zentralen Rechner die Rolle zuweist, die er und nur er spielen kann. Ironie der (DV-) Geschichte, daß ausgerechnet Sun (Sonne) Java entwickelt hat.

Die derzeit nicht nur in der Fachpresse diskutierten Fragen wie: Wird der NC den PC ablösen? Wird der Browser Windows ersetzen? Wird sich Java als die Entwicklungssprache für Internet- und Intranet-Applikationen durchsetzen? sind nach Meinung des Analysten zwar wichtige, aber nachgeordnete Kriterien. "Bislang hat noch keine Debatte über die relativen Vorteile von zentraler und dezentraler Datenverarbeitung stattgefunden." Dabei sei das der zentrale Punkt.

Auch die Hersteller hätten noch nicht erkannt, daß nach dem kurzen Ausflug ins Client-Server-Zeitalter erneut ein Paradigmenwechsel anstehe. Selbst NC-Hersteller argumentierten allein mit den geringeren Kosten (Total cost of ownership) im Vergleich zum PC. "Kein einziger Anbieter verfolgt einen zentralen Ansatz in Gedanken, Wort und Produkt", stellt Bloor fest. Einige Hersteller würden statt dessen PC-zentrierte Datenverarbeitung durch LAN-basierte ersetzen und ihren Kunden vorschlagen, eine "unkontrollierbare Menge an Mittelklasse-Servern" zu installieren.

Bloor glaubt, daß in Zukunft das Netzwerk im Unternehmen als ein einziger Ressourcenpool betrachtet wird, in dem Daten und Prozesse von einem zentralen Server aus auf die angeschlossenen Maschinen im Netz verteilt werden. Das sei vielfach nur mit der Einrichtung eines "virtuellen zentralen Rechners" möglich, bei dem mehrere Hochleistungsserver zu einem Komplex gekoppelt sind. Der Effekt sei aber der gleiche: "Das gesamte Netzwerk wird in jeder Beziehung von einem zentralen Punkt aus verwaltet."

Die Folge davon sei, daß der PC, mit dem diese Entwicklung - wenn überhaupt - nur sehr schwer zu verwirklichen sei, als vernetztes Endgerät im Unternehmen ausgedient habe. Als Stand-alone-Maschine, so der Analyst, wird er weiterhin genutzt werden, das sei schließlich auch seine ursprüngliche Idee gewesen. So wird sich auch der Markt für Endgeräte in zwei Segmente aufspalten: Private Konsumenten und der Small-office-home-office (Soho)-Bereich werden weiterhin PCs kaufen, größere Unternehmen nur mehr Hardware mit "Java Virtual Machines" (JVM).

Das Konzept mit JVMs sieht vor, daß Java-Programme auf unterschiedlichen Plattformen bereitgestellt und ausgeführt werden. Die Verantwortung für das Management der Anwendungsumgebung wandert auf den Server. Die JVMs können auf jedem Prozessor ablaufen, so lange Kommunikationsverbindungen vorhanden sind. Sie lassen sich von zentraler Stelle aus kontrollieren.

Einem Unternehmen auf dem Weg zu einer zentralen Datenverarbeitung dieser neuen Qualität, empfiehlt Bloor, sich das technische Ziel vor Augen zu halten: "Jede DV-Funktion ist jedem Benutzer in kontrollierbarer Weise zur Verfügung zu stellen." Daraus lassen sich drei Unterziele ableiten, die die Infrastruktur der Informationstechnik, die Software-Entwicklung sowie den technologischen Wandel betreffen.

Das DV-Management hat die Infrastruktur so auszurichten, daß jede gespeicherte Information, jeder IT-Prozeß und jeder interne und externe IT-Service von jedem autorisierten Anwender genutzt werden kann. Wahrlich keine einfache Aufgabe in einer fragmentierten Landschaft, wie die Bemühungen bei der Einrichtung von Data-Warehouses oder Intranets zeigen.

Damit jeder autorisierte Anwender an jedem IT-Prozeß teilhaben kann, muß er die Programme, die im Netz verfügbar sind, benutzen können. Bloor nimmt mit dieser Forderung allen Kritikern den Wind aus den Segeln, die befürchten, die Rückkehr zur zentralen DV beschneide die Möglichkeiten des Anwenders - das Gegenteil sei der Fall, seine nutzbare Umgebung verbreitere sich sogar.

Auch was die Hardware-Ressourcen im Unternehmen angeht, profitiert der Endbenutzer laut Bloor, denn ihm stehen alle im Netz verfügbaren Peripheriegeräte zur Benutzung offen. Ähnlich verhält es sich mit den externen Services, die ihm - sei es über das Internet oder eine direkte Verbindung - wichtig für seine Arbeit erscheinen und die er dafür einsetzen will.

Bloor ist sich darüber im klaren, daß dieses Ziel nicht einfach erreicht werden kann. Nötig sei eine Art "Über-Betriebssystem", das die unterschiedlichen Umgebungen unter einem Dach vereine. Investiert werden müsse in geeignete Middleware und Programme für das System- und Netzwerk-Management.

Hart ins Gericht geht der Analyst mit den Softwareherstellern. Es gebe eine lange Liste von Softwaretechniken, die bei ihrem Auftauchen als ultimative Lösung zur Steigerung des Geschäftserfolgs gepriesen wurden und sich nachher als leeres Marketing-Versprechen oder Papiertiger erwiesen.

Wenn nun Java-basierte Software entwickelt wird, müssen sich die Hersteller darauf einrichten, einem neuen DV-Modell zu genügen (siehe Abbildung unten). Vorgesehen ist die Möglichkeit, Softwarekomponenten auf Anforderung von einem Server aus zu verteilen. Der Vorteil einer solchen Vorgehensweise liegt darin, so der Autor, daß sich - vorausgesetzt die Fragen der Sicherheit und der Bandbreite sind gelöst - Programme über Internet und Intranets transportieren lassen. Zugleich impliziert das Modell eine einheitliche Software-Architektur für Internet- und Intranet-Applikationen.

Das Hauptmerkmal der Client-Server-Welt ist die Tatsache, daß Applikationen über mehr als einen Rechner hinweg verteilt werden. Die ersten Entwicklungen dieser Art waren PC-zentriert und führten zu einer ausufernden Vermehrung von PC-LANs. Der Server übernahm in dieser Konstellation die Datenspeicherung, und ein Großteil der übrigen Applikationen wurden auf die PCs verteilt. Dieses Modell mit den als "Fat-Clients" bezeichneten Endgeräten erforderte eine erhebliche Ressourcenanhäufung (Festplatte, Hauptspeicher, Prozessorleistung etc.) auf dem PC. Die Desktops skalierten schlecht und bereiteten in puncto Performance, Bedienerfreundlichkeit und Kosten Probleme.

Software-Tools (beispielsweise Forte, Nat Star, Open Elements und dergleichen) entstanden, mit denen die Entwicklung verteilter Anwendungen möglich war. Diese Programme enthalten eine Entwicklungs- und Verteilungskomponente und sorgen für eine Lastverteilung zwischen beiden. Solche Client-Server- Entwicklungstools sind zwar nicht für Java-basierte Entwicklungen und Verteilungsmechanismen entworfen worden, aber ihre Architektur ist dafür geeignet.

Sehr große Java-Anwendungen müssen sich jedoch auf Komponenten-Niveau kontrollieren lassen. Nur wenige dieser Tools verfügen über die nötigen fortschrittlichen Repository-Fähigkeiten, die für eine Integration dieser Komponenten notwendig sind. Bloor erwartet, daß in Zukunft eine dritte Generation von Client-Server-Entwicklungsprodukten auf den Markt kommen wird, die das neue, zentrale Modell der Unternehmens-DV adressieren werden. Er warnt allerdings davor, sich blind dem ohne Zweifel zu erwartenden Marketing-Getöse auszuliefern.

Der Analyst verkennt bei seinen Entwürfen nicht die De-facto-Situation in Unternehmen, die großenteils noch ihren Legacy-Applikationen - teilweise aus der Mainframe-Ära - anhängen. Er rät, das derzeitige User-Interface gegen ein Browser-basiertes Front-end auszutauschen. Sei diese relativ einfache Aufgabe gelöst, gehe es darum, die Daten dieser Programme zugänglich zu machen oder so zu konvertieren, daß sie in einer modernen Software-Umgebung arbeiten. Der Java-Ansatz, der auf Komponenten basiert und konform mit Objektorientierung geht, sei mit den alten Spaghetti-Programmen unvereinbar.

Bloor zieht in seinem Report Bilanz: "Die Computertechnologie befindet sich in einem Prozeß der Integration." Das DV-Ma- nagement muß sich als Servicezentrum etablieren, das diese Integration umsetzt und der Organisation zur Nutzung bereitstellt. Schon jetzt lassen sich vier Schritte in diese Richtung unternehmen:

-Der Austausch von PCs gegen NCs,

-die Konsolidierung der Server,

-Java-basierte Software-Entwicklung sowie

-die Implementierung von beschleunigender Middleware.

DV-Leiter werden bei der Integration von Legacy-Applikationen (vom PC bis zum Mainframe) auf die größten Schwierigkeiten treffen. In diesem Bereich müsse geeignete Middleware die Probleme mildern.

Angeklickt

Der Marktforscher Robin Bloor fordert in seinem Report "The Enterprise in Transistion" eine Abkehr vom Client-Server-Computing. Vielmehr solle in den Unternehmen eine DV-Umgebung etabliert werden, in der der zentrale Rechnerkomplex die einzige Quelle und Verteilungsstation für alle Daten und Prozesse darstellt. Dem DV-Management empfiehlt er, die Abteilung als Servicezentrum im Unternehmen zu etablieren, das jedem autorisierten Benutzer die gesamten DV-Ressourcen zur Verfügung stellt. PCs sind gegen NCs auszutauschen, die Server sind zu einem Komplex zu verküpfen, die Software-Entwicklung muß auf Java umgestellt werden und geeignete Middleware - nicht nur für Legacy-Programme - implementiert werden.

Vorteile

Die sich abzeichnende Ära einer integrierten DV-Landschaft bietet folgende Vorteile:

-Eine deutliche Reduzierung der Kosten für die Verwaltung der Desktops,

-eine Rationalisierung der DV-Landschaft im Unternehmen, die zu niedrigeren Kosten bei Hardware-Servern und zu mehr Flexibilität führt,

-relative Unabhängigkeit gegenüber dem technischen Wandel und

-bessere Nutzungsmöglichkeiten für die Benutzer.