Netz-Management/Verwaltung großer Desktop-Netze

Automatisiertes Management macht PCs deutlich rentabler

01.11.1996

Nicht nur die Zahl der PCs ist rapide gestiegen, durch den breiten Einsatz von Client-Server-Anwendungen sind sie heute wesentlich komplexer strukturiert. Auf den PC-Servern, die den Clients die gewünschten Applikationen liefern, befinden sich neben den Standardpaketen häufig mehr als 50 verschiedene Programme, die in Kombination mit zentralen Anwendungen eingesetzt werden.

Administration und Support der PC-Arbeitsplätze werden schnell zu einer Aufgabe, die Personalressourcen in einem Maß verschlingt, das den Nutzen der individuellen Rechner in Frage stellt. In immer kürzeren Abständen sind neue Softwareversionen zu berücksichtigen. Wird eine gewöhnliche Installation von Hand vorgenommen, ist pro Server, der durchschnittlich zirka 20 PCs versorgt, mit einem Aufwand von zwei Stunden zu rechnen.

Starke Variationen in der Konfiguration der Arbeitsplätze ziehen das Verfahren weiter in die Länge, so daß umfangreichere Upgrades durchaus pro Server einen Arbeitstag erfordern können. Spätestens ab einer Zahl von über 20 Servern oder 500 PCs sind Rationalisierungsmaßnahmen vorzuziehen denn die Kosten für entsprechende Softwarelösungen liegen bei dieser Größenordnung bereits deutlich unter den Aufwendungen für das Aufstocken des IT-Personals.

Die Gartner Group hat in ihren Untersuchungen zu den Gesamtkosten eines PCs (TCO = Total Cost of Ownership) darauf hingewiesen, daß die Summe der im Lebenszyklus eines PCs - angenommene fünf Jahre - anfallenden Aufwendungen von 1987 bis 1994 von etwa 20 000 auf über 40 000 Dollar gestiegen ist. Bei den untersuchten Unternehmen hat sich die Zahl der durchschnittlich eingesetzten Desktops in diesem Zeitraum mehr als vervierfacht: Statt 600 nutzt der Durchschnittsbetrieb inzwischen 2500 PCs. Während kaum fraglich ist, daß dieses Ausgabenwachstum gestoppt werden muß, besteht weit weniger Klarheit über die richtigen Methoden.

Die Analysten warnen davor, nur die direkt getätigten Investitionen im Auge zu haben und etwa die Ausgaben für den Support zu kürzen: Jeder Dollar, der beim technischen Support eingespart wird, erzeugt zwei Dollar Kosten für den dann notwendigen Underground-Support.

Dem Problem sei so nicht beizukommen, da den Löwenanteil der TCO nicht Ausgaben für Hard- und Software (zehn Prozent), Support (15 Prozent) und Administration (14 Prozent), sondern sogenannte Enduser Operations (61 Prozent) ausmachten. Unter letzterem sind Zeiten zu verstehen, die Enduser mit PC-Aktivitäten verbringen, die nichts mit ihren beruflichen Aufgaben zu tun haben. Das Spektrum reicht dabei von organisierten Schulungen oder ad hoc eingeschobenen Lernphasen über Anwendungsentwicklung und Datei-Management bis zu gegenseitiger User-Unterstützung.

Die Gartner-Analysten sind der Auffassung, daß die Unternehmen die TCO "um 50 Prozent reduzieren können, wenn sie das administrative Management in mehreren Schritten verbessern und die Benutzerkosten durch selektive Anwendung von Technologien wie zum Beispiel Helpdesk-Automation, Automatic Asset Tracking und Electronic Software Distribution senken".

Bisher sind in den Unternehmen, wenn überhaupt, nur rudimentäre Automatisierungsverfahren realisiert. Bei der Softwareverteilung wird dann mit Copy-Programmen gearbeitet. Diese sind mit sogenannten Response-Files kombiniert, die Konfigurationsinformationen für die Installation auf den einzelnen PCs enthalten.

Da der Rationalisierungseffekt verlorenginge, wenn zu jedem PC ein eigenes Response-File gepflegt wird, werden die Rechner kategorisiert. Das heißt, man legt sich auf eine geringe Anzahl von Typen fest, an die man sich dann bei der Konfiguration der PCs streng zu halten hat. Individuellen Bedürfnissen der Anwender - jemand braucht zum Beispiel einen besonders schnellen Rechner für statistische Auswertungen - läßt sich nur noch eingeschränkt entsprechen. Und ein Teil der durch den PC-Einsatz gewonnenen Flexibilität geht durch diese organisatorischen Handschellen wieder verloren.

Am Beispiel Softwareverteilung wird deutlich, daß eine wesentliche Voraussetzung für das effiziente Management großer Desktop-Landschaften eine Datenbasis mit Informationen über die Konfiguration der PCs ist, auf die verschiedene Anwendungen zugreifen können. Die Softwaredistribution kann diese Daten zur Laufzeit abfragen und die Installation auf den einzelnen PCs entsprechend vornehmen. Rechner müssen nicht mehr in Kategorien eingeteilt werden, die einheitlich auszustatten sind. Dadurch, daß Programme nur an den Arbeitsplätzen installiert werden, an denen sie tatsächlich nötig sind, lassen sich auch Lizenzkosten einsparen.

Die Informationen über die installierten Hard- und Software-komponenten können auch für andere Aufgaben von Nutzen sein. So lassen sie sich für das tägliche Problem-Management und den User-Helpdesk nutzen. Wenn ein Problem gemeldet wird, kann der Servicemitarbeiter sofort erkennen, was am betreffenden Arbeitsplatz aktuell an Hard- und Software installiert ist.

Das bei manuellem Management unvermeidliche Problem, daß Mitteilungen über Veränderungen an den Konfigurationen dem Helpdesk nicht immer rechtzeitig zur Verfügung stehen, verursacht einen erheblichen Zeitaufwand. Der Servicemitarbeiter muß in vielen Fällen selbst nachforschen, da der betreffende Endanwender oft nicht imstande ist, exakte Informationen über die Konfiguration seines Rechners zu geben. Auf der gemeinsamen Datenbasis kann sich auch das angesprochene Asset-Management aufsetzen. Mit einer solchen Anwendung läßt sich das IT-Inventar betriebswirtschaftlich verwalten. Die Übernahme der Daten aus dem technischen Bereich in die Warenwirtschaft verhindert, daß - wie häufig der Fall - erhebliche Diskrepanzen zwischen den in der Verwaltung geführten Zahlen und den tatsächlichen Beständen entstehen.

Wenn die Daten aus dem IT-Bereich direkt in betriebswirtschaftliche Anwendungen übergehen, werden die PCs, die bisher oft ein für die Materialwirtschaft und Buchhaltung weitgehend unbekanntes Dasein führen, zur berechenbaren Größe. Sie lassen sich wie jeder andere Vermögenswert des Unternehmens behandeln. An die Stelle des bisher üblichen Wildwuchses kann eine Investitionsplanung auf der Grundlage exakter Bestandsdaten treten.

Eine wesentliche Anforderung an eine Lösung für unternehmensweites Desktop-Management ist die Unterstützung heterogener Plattformen. In vielen Unternehmen sind heute Netze mit unterschiedlichen Server-Betriebssystemen zu verwalten. Die vorhandene Software für System-Management beschränkt sich häufig auf einzelne Plattformen. Mit der übergreifenden Verwaltung dieser Netze eröffnen sich erhebliche Rationalisierungspotentiale.

Anläßlich eines Forums zum Thema System-Management umriß Norbert Büker, Geschäftsführer der BV-Info, des DV-Dienstleisters der Vereinsbank, die Strategie, mit der sein Unternehmen versucht, einen hohen Grad an Service und Effizienz in einer weit gestreuten heterogenen Umgebung zu erzielen. In der von ihm betreuten DV-Umgebung, bestehend aus einem zentralen MVS-System und diversen Unix-, Windows- und OS/2-LANs mit insgesamt etwa 600 LAN-Domänen, strebe man an, "möglichst viele Management-Keypoints und -Aufgaben mit möglichst wenigen Werkzeugen plattformübergreifend abzudecken, Tools als Agenten zu integrieren, die Verarbeitung möglichst dezentral, aber Steuerung und Überwachung so zentral wie möglich durchzuführen". Bereits getätigte Investitionen für System-Management in den einzelnen LANs will man schützen, indem die dort vorhandenen Tools weiter als Agenten in der übergreifenden Lösung fungieren.

Mainframe als Dreh- und Angelpunkt

In dieser Konzeption legt man Wert darauf, daß Management-Aufgaben zentral zusammengefaßt werden, um dadurch Rationalisierungseffekte zu erzielen. Dabei dient der Mainframe als Dreh- und Angelpunkt. Da Desktop-Netze in vielen Großunternehmen um einen Zentralrechner herumgewachsen sind, ist es naheliegend und oft die kostengünstigste Lösung, diesen als Daten- und Administrations-Server zu nutzen. Das MVS-System verfügt in der Regel über die schnellsten Leitungen zu den verschiedenen LANs. Gleichzeitig ist es die Plattform, die ein großes Datenaufkommen immer noch am besten bewältigen kann und höchste Verfügbarkeit gewährleistet.

Andere Anwender mit weniger zentralisierter DV wollen die Management-Funktionen möglichst weitgehend dezentral ansiedeln. In solchen Umgebungen kommt es darauf an, daß sich die jeweils vorhandenen lokalen Server mit ihren Datenbanksystemen als Management-Plattform nutzen lassen. Um sich in dieser Weise flexibel an unterschiedliche Gegebenheiten und Anforderungen anpassen zu können, brauchen Lösungen für das System-Management ein Framework, das Unterstützung für unterschiedliche Betriebssysteme, Protokolle und Datenbanken bietet.

Framework-Ansätze besitzen eine Cross-Plattform, auf der sich die gleichen Anwendungen unternehmensweit einsetzen und vorhandene Teillösungen als Agenten integrieren lassen. Auch der Übergang von einem strategisch favorisierten LAN-Betriebssystem zu einem anderen, beispielsweise von OS/2 zu NT, läßt sich damit vollziehen, ohne die Management-Umgebung wechseln zu müssen.

Angeklickt

Mit zunehmender Komplexität der Software-Installationen vergrößert sich der Verwaltungsaufwand in Client-Server-Konfigurationen rapide. Hier können Automatisierungs-Tools helfen. Der Nutzen solcher Softwarewerkzeuge kommt aber erst dann voll zum Tragen, wenn sie sich übergreifend in heterogenen Umgebungen mit verschiedenen Plattformen und Protokollen einsetzen lassen. Je nach Organisationsform der Unternehmens-DV sind zentrale oder dezentralisierte Strukturen zu unterstützen. In Mainframe-zentrierten Umgebungen bietet es sich an, den Host als Router und Daten-Server zu nutzen. Dezentralisierte Umgebungen sind demgegenüber vollkommen unabhängig mit lokalen Servern und Datenbanken zu managen.

*Karl Heinz Wimmer ist Leiter Technical Support bei der Münchner Interchip Unternehmensberatung GmbH.