Thema der Woche

Anwender entwirren den Client-Server-Knoten

20.03.1998

Obwohl PCs immer billiger werden, verursachen sie immense Kosten. Das lehrte uns die Gartner Group, die den schönen Begriff "Total Cost of Ownership" erfand, um klarzumachen, daß es mit den Anschaffungskosten allein nicht getan sei. Auf der ganzen Welt quält sich ein Gutteil der IT-Profis damit, Desktops aufzurüsten, Anwendern bei der Behebung von Fehlern zu helfen, neue Software aufzuspielen, Rechner ins Netz zu hängen etc.

Wo kein IT-Personal verfügbar ist, vergeudet der Anwender selbst kostbare Arbeitszeit, um das Problem zu lösen - oder er beauftragt den mehr oder weniger fachkundigen Kollegen. Beide werden eigentlich für andere Aufgaben bezahlt. Die so entstehenden Zusatzkosten waren den Analysten ebenfalls einen Fachterminus wert: Sie sprechen vom "Fuzz-Faktor". Pro Arbeitsplatz kommen auf Unternehmen heute in der Regel fünfstellige Beträge zu - Summen, die in der Mainframe-Ära nicht anfielen.

Die hohen Kosten am Front-end haben das Client-Server-Modell, in dessen Sog der PC die Arbeitsplätze in den Unternehmen eroberte, in Verruf gebracht. Dabei haben die meisten PC-basierten Lösungen, allen voran persönliche Produktivitäts-Werkzeuge aus den Office-Produktpaletten, mit Client-Server zunächst einmal nichts zu tun.

Es handelt sich um Stand-alone-Programme, die zwar reichhaltige Funktionalität, aber geringe ergonomische Reife bieten, so daß sie manchen Anwender überfordern und damit Kosten und Komplexität schaffen. Andererseits brachten sie enorme Fortschritte, was die Produktivität der Benutzer angeht. Leider liest man in den zahlreichen Studien zum Thema "Kostenfresser PC" im allgemeinen nicht, welche geldwerten Vorteile dadurch entstanden sind, daß Sekretärinnen plötzlich Serienbriefe verfassen oder Sachbearbeiter eigenständig Auswertungen per Spreadsheet vornehmen konnten.

Jenseits der PC-Problematik haben vor allem die Anwendungen zum schlechten Client-Server-Image beigetragen, die allgemein als Zwei-Schichten-Applikationen (Two-tier-Applications) bezeichnet werden. Präsentations- und Anwendungslogik befinden sich dabei auf der Arbeitsstation, während das Datenhaltungssystem auf einem Server residiert. Vor allem in der Microsoft-Windows-Welt kommt dieses Verfahren zum Einsatz.

Präsentation und Anwendungslogik sind aufgrund der Windows-Voraussetzungen sehr eng miteinander verwoben. Entsprechende Programme lassen sich schnell entwickeln und kommen zumeist für Spezialaufgaben auf Abteilungsebene zum Einsatz - zum Beispiel bei einer Versicherung, die für 50 Mitarbeiter eine bestimmte Provisionsabrechnung realisieren möchte.

Die Jenz & Partner GmbH, Erlensee, urteilt in ihrer lesenswerten Studie "Komponentenbasierte Anwendungssysteme" (795 Mark) über die Zwei-Schichten-Architektur: "Die typischen Client-Server-Anwendungen der ersten Generation leiden am ,Fat-Client´-Syndrom. Die Arbeitsstationen müssen immer wieder aufgerüstet werden, um die steigenden Kapazitätsanforderungen von System- und Anwendungssoftware befriedigen zu können. Auch die Administration der Arbeitsstationen bereitet erheblichen Aufwand. "

Während die Two-tier-Architekturen also Mitverursacher des Fat-Client-Problems sind, sorgen die moderneren Drei-Schichten-Anwendungen, wie sie etwa SAP mit ihrer R/3-Software realisiert hat, für Entlastung am Client, aber für mehr Komplexität auf der Server-Seite. Die Datenbank wird auf einen zentralen, die Anwendungslogik auf beliebig viele Server verlagert.

Da die PCs nur die Präsentationskomponente enthalten, ist der Aufrüstungsbedarf gering. Allerdings müssen Schnittstellen und Protokolle definiert werden, um den Aufruf der Anwendungsfunktionen und den Datenaustausch zwischen den Servern zu gewährleisten. Auch sind Dienste erforderlich, die Anwendungsfunktionen unterschiedlichen Umfangs auffinden und die Sicherheit in verteilten Umgebungen garantieren. Viele Unternehmen setzen zusätzliche Datenbanken ein, die in regelmäßigen Abständen mit der zentralen Datenbank abgeglichen werden. Auf diese Weise läßt sich der Datentransfer zwischen Anwendungen und Datenbank-Server ökonomisch verteilen und das Antwortzeit-Verhalten verbessern.

In den meisten Unternehmen sind in der Regel sowohl Two- als auch Three-tier-Architekturen vorhanden. Nicht nur der Druck der Anwender, die zu Hause bereits PCs mit Textverarbeitung, Tabellenkalkulation und Datenbank einsetzten, beschleunigte die Entwicklung in Richtung Client-Server-Technologien. Auch das IT-Management begann sich zu interessieren, da das von IBM beherrschte Mainframe-Umfeld nicht zuletzt aufgrund der Monopolsituation kaum noch Innovationen hergab und zudem immer teurer wurde. Darüber hinaus bot es nicht die Produktauswahl, die im Client-Server-Zeitalter von der Hardware über das Betriebssystem bis hin zu Datenbanken und Entwicklungs-Tools gegeben ist.

Vor allem aber waren die wirtschaftlichen Erfordernisse in den Firmen Katalysatoren des Wandels. Die Verteilung von Anwendungen und Daten wurde in dem Maße zwingend, wie sich Unternehmen in betriebswirtschaftlicher Hinsicht zum Downsizing entschlossen und dem Globalisierungstrend folgten. Sie teilten sich in eigenständige Tochtergesellschaften auf, schafften ganze Hierarchieebenen ab und konzentrierten ihre Organisation auf die Unterstützung wichtiger Kernprozesse (Business Re-Engineering).

Die Prozeßsicht trat an die Stelle der Funktionssicht, Softwarelösungen wurden daraufhin ausgewählt oder entwickelt, ob sie imstande sind, definierte Kernprozesse abzubilden und entsprechende Kommunikationsanforderungen zu erfüllen. Die Systeme sollten offen und skalierbar sein, um an unterschiedlichen Standorten in verschiedenen Systemumgebungen zu laufen und den permanenten Wandel zu unterstützen.

Die schwer umzusetzenden Vorgaben aus dem Topmanagement und die steigenden Anforderungen der PC-erfahrenen Endanwender führten jedoch in vielen Fällen dazu, daß den IT-Abteilungen das Ruder aus der Hand glitt. Endgeräte und Softwareprodukte wurden angeschafft, die weder den firmeninternen Standards entsprachen noch mit dem vorhandenen System-Management-Support unterstützt werden konnten.

Oft hielt die zentrale Technologieorganisation die Fäden nicht mehr in der Hand, notwendige Absprachen zwischen den Abteilungen blieben aus. Unternehmen, die zuvor in einer homogenen Umgebung aus IBM-Produkten wie MVS, CICS, IMS und DB2 gearbeitet hatten, waren daran gewöhnt, daß die Komponenten ihrer Umgebung zusammenpaßten. Erfahrungen mit Multivendor-Systemen lagen kaum vor.

Das Debugging von Anwendungen, die in Three-tier-Umgebungen auf mehreren Maschinen laufen, überforderte die IT-Profis ebenso wie das Monitoring und Tuning der Programme, das in der Host-Ära mit ausgereiften Datenbank- und System-Management-Tools relativ reibungslos vonstatten ging. Für Client-Server-Umgebungen gibt es jedoch die adäquaten Tools erst seit drei Jahren.

Die Kosten für den Betrieb der Client-Server-Umgebung waren deutlich höher als die der monolithischen, zentral organisierten Mainframe-DV - die Gartner Group spricht vom Faktor drei bis sechs. Auch die aktuelle Umfrage der CW (siehe Abbildungen) zeigt, daß die Erwartungen bezüglich des Betriebsaufwands nicht erfüllt wurden. Dazu trugen nicht nur technische, sondern auch organisatorische Probleme bei.

"Die Komplexität ist immens geworden", beobachtet Martin Kütz, Berater bei Arthur D. Little in Wiesbaden. "Es ist ein Unterschied, ob man ein Unternehmensnetz mit Hunderten von Servern an verschiedenen Standorten und Tausenden von Clients fährt oder eine relativ homogene Mainframe-Landschaft vor sich hat. "IT-Manager hätten Probleme, die Übersicht über die technologische Entwicklung zu behalten und "die verschiedenen Hersteller so zusammenzubringen, daß eine Gesamtlösung dabei herauskommt".

Die Konsequenz sei, daß Anwender versuchten, die Liste der in Frage kommenden Anbieter zusammenzustreichen, um so die Komplexität zu reduzieren. "Eine Schlüsselrolle spielen dabei Microsoft und SAP", so Kütz. "Sie sind das geworden, was IBM vor zehn Jahren war: der Orientierungspunkt, der Sicherheit gibt. Wer die Produkte dieser Hersteller kauft, fühlt sich sicher, keinen grundsätzlichen Fehler zu machen, denn andere kaufen die Software ja auch. " Eine zweite Konsequenz liege in der Rezentralisierung wichtiger Funktionen, die mit Hilfe von Web-Techniken erfolge (siehe Seite 12).

Peter Keen, Autor des kürzlich bei Harvard Business School Press erschienenen Buches "The Business Internet and Intranets", beschreibt die Folgen der Komplexität noch drastischer: "Die IT-Abteilungen verhalten sich wie Flughäfen in den großen internationalen Metropolen New York, Frankfurt oder Tokio. Sie sind nie dafür entworfen worden, das heutige Verkehrsvolumen einschließlich Kontrollmechanismen, Sicherheitsanforderungen und Parkkapazitäten zu beherrschen. Deshalb befinden sie sich fortwährend in einem Stadium hektischer Renovierung. "

Die Technologieplattformen der Unternehmen setzten sich aus einem zumeist weder überschauten noch beherrschten Sammelsurium aus Servern, Clients, Peripheriegeräten, Betriebssystemen, Datenbank-Management-Tools, Legacy-Systemen und Anwendungspaketen zusammen. Internet-Techniken, allen voran Intranets, dienen dazu, über Standards wie Browser, HTML und TCP/IP Inkompatibilitäten zu reduzieren und die Integration voranzutreiben.

Keen berichtet von einem Gespräch, daß er mit dem IT-Chef eines der weltweit größten Chemiekonzerne geführt habe: "Er erzählte mir, das Gerede von IT-Strategien sei reine Fassade. Seine ganze Energie verwende der DV-Manager darauf, die rund 100000 Desktops in seinem Unternehmen in Betrieb zu halten. Er habe Angst vor der Zukunft. Mit der Einbindung von Laptops und vernetzten Multimedia-PCs, Electronic Commerce, Agententechnik, drahtloser Kommunikation etc. werde sein Personal auf keinen Fall fertig. "

Nach einer Untersuchung der Standish Group in Dennis, Massachusetts, beurteilte die Mehrheit von 365 IT-Managern ähnlich wie der hier zitierte die Ergebnisse ihrer Client-Server-Bemühungen als "Enttäuschung". Nur 16,2 Prozent der befragten IT-Chefs haben ihre Client-Server-Projekte pünktlich und zu den veranschlagten Kosten abgeschlossen. Sogar 31,1 Prozent der Projekte sollen abgebrochen worden sein. Insgesamt 52,7 Prozent haben das Budget gesprengt, den Zeitrahmen nicht eingehalten oder die gewünschten Features nicht gebracht.

Evan Bauer, Analyst der Giga Information Group, gibt in dem Report "Information Technology: Converging Strategies and Trends for the 21st Century" von der Computer Technology Research Corp. http://www.ctrcorp.com zu Protokoll: "Steigende Kosten für Integration, Koordination, Entwicklung, Wartung und Debugging führten dazu, daß die IT-Ausgaben nicht gesenkt werden konnten. "Dennoch bilanziert er: "Client-Server is effectively here" - die Würfel seien definitiv gefallen.

Nicht nur die Giga Group, nahezu alle Marktforschungsunternehmen sehen die Probleme, die Client-Server-Architekturen aufgrund mangelnder Beherrschung verursachen. Dennoch werden die Vorteile in der Bilanz wesentlich höher gewichtet: In einer Umgebung, in der sich eine variierende Zahl von Clients bestimmte Services teilt, können beispielsweise Veränderungen sehr schnell umgesetzt werden. Services lassen sich je nach geografischen und funktionalen Erfordernissen anpassen oder aufstocken, Clients aufgrund der Skalierbarkeit der Architektur beliebig anhängen. Die Systeme sind strapazierfähig: Fällt ein Server aus, muß noch nicht wie beim Mainframe-Computing der ganze Betrieb lahm liegen.

Viele Unternehmen haben diese Vorteile erkannt und halten trotz Schwierigkeiten an ihren Client-Server-Projekten fest. Allerdings sind bis heute große Teile der geschäftskritischen Anwendungen noch gar nicht in eine Client-Server-Umgebung migriert worden. Michael Bauer, Geschäftsführer der Informatik Training GmbH in Radolfzell, beobachtet, daß zumindest in Deutschland sogenannte Mission-critical-Systems oft noch wie vor zehn Jahren auf dem Host laufen - nicht unbedingt zum Vorteil des Anwenders.

In der Bankenwelt etwa basierten die großen, zumeist von der hauseigenen IT-Abteilung entwickelten Kernanwendungen zu etwa 30 bis 40 Prozent auf Client-Server-Technik; im industriellen Bereich, wo sich SAP mit der R/3-Software sehr stark ausgebreitet habe, liege der Anteil bei 60 bis 70 Prozent. Versicherungsunternehmen und Verwaltungen dagegen arbeiteten in ihren Kerngeschäftsfeldern fast ausschließlich mit eigenen Host-basierten Lösungen.

Bauer stellt ebenfalls fest, daß Client-Server-Architekturen die Kosten nicht senken, doch werde die Qualität der Information deutlich erhöht. Die meisten Anwender müßten heute auf ihren PCs in einer "dualen DV-Umgebung" arbeiten. Auf der einen Seite stehen die operativen Anwendungen, die ihnen per 3270-Emulation auf den Bildschirm gedrückt werden, auf der anderen Seite arbeiten sie mit modernen Produktivitäts-Tools aus der Office- und Groupware-Welt, wo sich per Cut and Paste Informationen bewegen lassen.

Terminaloberflächen sind für ihn unwiderruflich passé, weil sie ergonomisch und funktional weit hinterherhinken. Auch bieten sie Anwendern nicht die Möglichkeiten, ihren Job in angemessener Geschwindigkeit und Qualität zu erledigen.

Banken etwa können in der Kreditberatung oder im Wertpapiergeschäft ihre Angestellten mit grafischen Oberflächen ausstatten, auf denen alle wichtigen Informationen in mehreren gleichzeitig geöffneten Fenstern zur Verfügung stehen. Vor nicht allzu langer Zeit mußten nacheinander verschiedene Masken für Kundenprofil, Kontenübersicht, Pro-Konto-Ansicht etc. geöffnet werden. Das lästige Blättern entfällt heute, Zwischennotizen müssen nicht mehr gemacht werden. Anwender können in einem Fenster scrollen und erhalten gleichzeitig die zugehörigen Daten in den anderen Fenstern.

Das Host-Konzept ist jedoch auch obsolet, weil es den Umgang mit Daten einschränkt. Client-Server-Techniken ermöglichen, operative Daten mit Office- und Kommunikationswerkzeugen zu kombinieren und daraus wertvollere Informationen zu gewinnen. Aus der SAP-Anwendung heraus lassen sich etwa Möglichkeiten der elektronischen Kommunikation (E-Mail, Fax, Internet, EDI, Groupware) nutzen. Wer diese Funktionen erreichen möchte, wird seine Anwender mit einem intelligenten Endgerät, sei es ein PC oder ein Network Computer (NC), ausstatten müssen.

Daß gerade der NC aus Kostengründen zu einem ernsthaften Rivalen des PCs heranreift, zeichnet sich immer deutlicher ab.

"In den meisten Unternehmen werden die PCs präventiv mit allen wichtigen Office- und Kommunikationsprodukten ausgestattet, weil man nicht so genau weiß, welche Aufgaben der Anwender heute und in Zukunft bewältigen wird", beobachtet Bauer. Dieser Ansatz treibe Kosten und Betreuungsaufwand in die Höhe. Ein Konzept, das auf dem Endgerät den Browser als einziges Stück Software vorsehe und bei dem jede einzelne Anwendung bei Bedarf dynamisch aus dem Netz geladen werde, vereinfache die User-Betreuung erheblich und bringe Ordnung in die Anwendungslandschaft.

Auch auf Server-Ebene wird die Konsolidierung vorangetrieben. Richard Nußdorfer, Geschäftsführer der DSA Consulting GmbH in München, erwartet, daß sich die Rechenzentren zu "Server Parks" entwickeln, in denen Mainframes, Unix- und Windows-NT-Server nebeneinander stehen. Als zentrales Datenbanksystem werde je nach ökonomischen und organisatorischen Aspekten wie bisher ein Mainframe oder ein großer Unix-Server eingesetzt. Die Applikations-Server würden ebenfalls konsolidiert, soweit dies möglich sei. Ähnliches gilt für E-Mail-, Fax-, Dokumenten-Management-, File-, Print-, Web- und andere Server.

Auch aus Sicherheitsgründen scheint diese Form der Rezentralisierung unumgänglich. Noch findet sich in vielen Unternehmen der Server unter dem Schreibtisch eines Mitarbeiters, doch die Erkenntnis wächst, daß diese Sicherheitslücke schnellstmöglich geschlossen werden muß.