Systemadministration/Kosten sparen mit aufeinander abgestimmten Werkzeugen

Am Ende steht ein Kompromiß aus alten und neuen DV-Welten

10.10.1997

In Zeiten der Vorherrschaft von Host-Anwendungen in der Unternehmens-DV lagen die Dinge noch verhältnismäßig einfach: Ein de

hfacto monopolistischer Systemanbieter (IBM) offerierte aufeinander abgestimmte Hardware, Software und Dienstleistungen aus einer Hand und lieferte zugleich auch noch Arbeits- und Verfahrensanweisungen für das System-Management.

Die Durchgängigkeit der Gesamtlösung und die professionelle Systemverwaltung hatten aber Nachteile in der Variabilität und der Anpaßbarkeit von Einzellösungen an die spezifischen Belange der Anwender. Die aufwendige Programmierung, inflexible Entwicklungszyklen und eine insgesamt viel zu starre Gesamtarchitektur führten zu Verzögerungen in der Host-basierten Anwendungsentwicklung. Diese tradierte prekäre Situation spitzt sich durch aktuelle Sonderanforderungen wie die Euro- oder Jahreszahlenumstellung noch weiter zu.

Hersteller verfolgen kollidierende Ansätze

Heute herrschen bei den meisten Organisationen gemischte DV-Landschaften mit einer Vielzahl von Anwendungsarchitekturen, Netzwerktopologien, Hard- und Softwarekomponenten unterschiedlichster Hersteller vor. Jeder Hersteller verfolgt naturgemäß eigene Interessen; für das systemische Zusammenspiel aller Komponenten beim Kunden fühlt sich niemand mehr so richtig verantwortlich. Ein unkoordiniertes System-Management der Einzelkomponenten führt in der Folge zu den oben beschriebenen Symptomen.

In komplexen Multi-Vendor-Umgebungen versprechen Standards eine Reduktion der Problemkomplexität. Heute helfen diese den Organisationen aber nur bedingt weiter, denn mit den kaum noch überschaubaren und täglich wechselnden Kooperationen der Hersteller ändern sich auch die proklamierten "Standards" immer schneller. Die (an sich positive) Flexibilität der Client-Server-Architekturen und -Anwendungen zieht aus diesen Gründen hohe Aufwendungen nach sich. Auch der Trend zur durchgängigen Nutzung des Inter- oder Intranet als Präsentationsschicht für die Unternehmens-DV wird dies nicht grundlegend ändern, denn die Heterogenität auf den Servern bleibt bestehen.

Ziel eines modernen System-Management-Ansatzes muß es daher sein, die Errungenschaften der Host-basierten Datenverarbeitung auf die flexiblen Rahmenbedingungen der modernen DV-Strukturen zu übertragen. Der Versuch, diesen Spagat hinzubekommen, ist zugegebenermaßen ein recht schwieriges Unterfangen. Viele Berater, Softwarehersteller und Systemintegratoren bieten (Teil-)Lösungen, und es fällt nicht leicht, die verschiedenen Methoden und Werkzeuge richtig einzuordnen und hinsichtlich ihrer Einsetzbarkeit für bestimmte Aufgabenstellungen zu bewerten.

Eine Stukturierung des Problems kann zu dessen Lösung beitragen. Der Administrator muß sich heute zwei unterschiedlichen Arten von Anforderungen stellen: dem System-Management heterogener Umgebungen und dem Desktop-Management der Arbeitsplätze.

System-Management umfaßt Aufgaben der zentralen Verwaltung und Wartung heterogener Client-Server-Netzwerke. Dazu gehören Hard- und Software-Inventarisierung, Verwaltung sowie Betrieb von Server- und Aktivkomponenten oder die Störfallerkennung und -behebung auf Netzprotokollebene. Aufgrund der in der einfachen DV-Verwaltung gesammelten Inventarisierungsinformationen läßt sich eine Aufteilung des Gesamtnetzes in homogenere Subnetze vornehmen.

Im Desktop-Management stehen andere Anforderungen im Vordergrund: Es sind rollenspezifische Musterarbeitsplätze (zum Beispiel für Sekretärinnen, Sachbearbeiter, Entwickler) zu konzipieren, Anwenderarbeitsplätze möglichst von einer zentralen Stelle aus zu installieren und zu warten, ferner ist eine Infrastruktur für die Anwenderbetreuung (Helpdesk) bereitzustellen.

Der Sinn einer Aufteilung des Gesamtnetzes in homogene Subnetze liegt in der zentralen Bedeutung der Softwareverteilung für das Desktop-Management begründet. Die einheitliche Systemplattform (etwa 16-Bit- oder 32-Bit-Windows-Clients, Unix- oder Browser-Umgebungen) ist erforderlich, um eine komfortable Verteilung der nur auf der jeweiligen Betriebssystem-Plattform lauffähigen Software zu ermöglichen. Gerade die Verteilungsfunktionalitäten spielen im Desktop-Management eine entscheidende Rolle bei der Automatisierung von Administrationsaufgaben und damit bei der Reduktion der bisher notwendigen manuellen Tätigkeiten.

Das Desktop-Management hat auch je nach Entwicklungsstufe der vorherrschenden Client-Server-Architektur eine unterschiedliche Ausrichtung. Die Frage der Einrichtung von Anwendungssoftware im Netz stellt sich beispielsweise in einer Browser-orientierten Umgebung anders als bei "klassischen" LAN-Strukturen mit "Fat Clients".

Betrachtet man den Markt für System-Management-Tools, so stellt man sehr schnell fest, daß kein einzelnes Werkzeug alle Anforderungen der Praxis komplett abdecken wird. Es gibt Werkzeuge, wie HPs "Open View" oder IBMs "Tivoli", die ihre Schwerpunkte in der Unterstützung von Anforderungen im Bereich des heterogenen System-Managements haben.

Dagegen spezialisieren sich andere Hersteller, etwa Microsoft mit dem "Systems Management Server", mehr auf homogene Umgebungen. Solche Basislösungen lassen sich mit einer Vielzahl von verschiedenen Spezialwerkzeugen, beispielsweise Prodactas "Pronet" oder Adlons "Miss Marple", die einzelne Teilaspekte des System-Managements abdecken, ergänzen.

Die Tools zur Unterstützung der operativen Anforderungen sollten so ausgewählt werden, daß sich die angebotenen Funktionalitäten des System- und des Desktop-Managements in der konkreten Anwendungsumgebung möglichst umfassend ergänzen. Bei der Festlegung eines System-Management-Konzepts sind neben den aktuellen Anforderungen auch absehbare Weiterentwicklungen der Systemlandschaft in der Organisation zu berücksichtigen.

Wie sehen nun die ersten Schritte zur Einführung eines leistungsfähigen System-Management-Konzepts aus?

Erfahrungen aus Großprojekten mit bis zu 30 000 Arbeitsplatzrechnern zeigen, daß zunächst die unternehmensspezifischen Zielsetzungen für das System-Management festzulegen sind. Es ist die Frage zu klären, in welchen Bereichen des System-Managements der Leidensdruck am höchsten ist oder welche Aspekte eine niedrigere Prioriät erhalten können.

Im Rahmen einer Ist-Analyse sind anschließend die genauen Umfeldbedingungen zu spezifizieren. Hierzu gehören unter anderem die Art und die Anzahl der eingesetzten Hard- und Softwarekomponenten, die verwendeten Netztopologien, das Know-how der verfügbaren Fachkräfte für die Systemadministration sowie die gegebenen organisatorischen Rahmenbedingungen.

Aus den Projektzielen und den Organisationsgegebenheiten kann eine Abgrenzung der mit leistungsfähigen Werkzeugen zu unterstützenden Management-Funktionen erfolgen. Der beliebte Vergleich von aufgeblähten Feature-Listen aus den Marketing-Abteilungen der Software-Anbieter weicht in der Praxis zusehends einer anforderungsorientierten Tool-Evaluation. Im Laborbetrieb wird unter möglichst realen Bedingungen die Leistungsfähigkeit anhand von vorher (!) definierten Checklisten überprüft.

Ist das Portfolio der einzusetzenden Werkzeuge geklärt, kann die Detailplanung der Systemeinführung beginnen.

Erfahrungsgemäß ist davon auszugehen, daß sich eine Ausgangslösung irgendwo zwischen der aus der Host-Welt bekannten hochkontrollierten Zentraladministration und dem aus der klassischen PC-Welt bekannten "Turnschuh-Support" bewegt. Die gegebenen Ziele und deren Priorisierung zeigen aber einen Weg auf, wie sich der Beherrschungsgrad der flexiblen Client-Server-Strukturen kontinuierlich steigern läßt, so daß die eingangs beschriebenen Symptome allmählich verschwinden.

Angeklickt

In vielen Unternehmen sind heute die gleichen Symptome zu erkennen: Endanwender klagen über mangelnde Unterstützung und zu lange Reaktionszeiten der DV-Abteilung; Systemadministratoren sind mit dem Tagesgeschäft so überlastet, daß sie sich mit der Weiterentwicklung der DV-Landschaft nicht mehr beschäftigen können, und das Management stöhnt über teure Überstunden, hohe externe Beratungskosten sowie über die Höhe der Total Cost of Ownership (TCO). Wo sind die Ursachen für diese Mängel im System-Management zu suchen, und wie läßt sich ihnen wirksam begegnen?

*Olaf Gierhake ist Leiter Lösungsentwicklung, Volker Wiora ist Geschäftsführer bei der Prodata Computer Service & Systems GmbH in Ettlingen.