Information wird mehr und mehr zum eigenständigen Produktionsfaktor

Netz-Management: Der Blick für die strategische Dimension fehlt

31.07.1992

Die zentrale Herausforderung an Netz- und System-Management-Lösungen liegt nach Auffassung von Jürgen Lohrmann* darin, die wachsende Komplexität vernetzter Informationsstrukturen zu beherrschen. Er widmet sich daher vor allem der Frage, was Anwender von einer "integrativen Architektur" erwarten dürfen und was heute bereits unter dem Schlagwort des "Network Computing" in bezug auf den unternehmensweiten Informationsfluß und die Geschäftsabläufe intensiviert, verbessert und kontrolliert werden kann.

Häufig ist die Diskussion über Lösungen im Netz- und System-Management einseitig auf Tools fixiert, wodurch das Pferd oft von hinten her aufgezäumt wird und zuweilen der Blick dafür verloren geht, welchen Stellenwert das Netz- und System-Management heute für die Unternehmen hat Dabei wird jedoch gerade die Frage, welche generellen qualitativen Anforderungen, Aufgaben und Belastungen sich in puncto Administration von DV-Strukturen für das Personal ergeben und wie demzufolge die Werkzeuge beschaffen sein sollten, die die Netz- und System-Manager möglichst wirksam bei der Erfüllung ihrer Aufgabe unterstützen, immer wichtiger.

Wissen durch Informationsverarbeitung

Die Pflege des eigenen Know-hows trägt heute entscheidend zur Wettbewerbsfähigkeit der Unternehmen in den hart umkämpften, hochentwickelten Märkten bei. Wissen wird mehr und mehr aus dem Austausch, der Verarbeitung und der Aufbereitung von Informationen gewonnen Deshalb gilt Information heute vielfach auch als eigenständiger Produktionsfaktor. Dies zeigt auch die Tatsache, daß immer mehr Techniken für die effiziente Übermittlung und Verwertung von Informationen in den Unternehmen heute verfügbar sind.

Diese Techniken - subsummiert unter den Sammelbegriffen Network Computing und Client-Server-Computing - versetzen die Unternehmen in die Lage, ihre Informationsflüsse und Geschäftsabläufe systematisch zu verbessern und auf diese Weise Rationalisierungs-Potentiale zu erschließen um damit letztlich die eigene Position im Wettbewerb zu stärken. Network Computing beschränkt sich dabei keineswegs nur auf den lokalen Bereich von Arbeitsgruppen oder Abteilungen. Vielmehr gehört es heute zum DV-Alltag bei vielen Großanwendern, daß LANs innerhalb unternehmensweiter Internetworking-Strukturen meist auch über Verbindungen zu entsprechenden Diensten in der WAN- und MAN-Ebene verfügen.

Ähnliches gilt auch für die Kommunikation mit externen Partnern. Auch in diesem Bereich werden elektronische Medien zunehmend wichtiger, um Mitteilungen oder Daten auszutauschen und geschäftliche Transaktionen abzuwickeln. Viele Unternehmen befinden sich deshalb in einem Umwandlungsprozeß, an dessen Ende eine "Open Corporation" stehen soll.

Wenn die Unternehmen über kein klares Bild ihrer internen Geschäftsabläufe verfügen, können Hemmnisse, Lücken, Verzögerungen in den betrieblichen Informationsflüssen kaum systematisch erkannt und beseitigt werden. Ein "Re-Engineering" der Informationsflüsse setzt daher die Bestandsaufnahme der Interdependenz von Informationen, Prozessen, Mitarbeitern und Ressourcen voraus - dies jedoch immer vor dem Hintergrund der organisatorischen Strukturen, Geschäftsziele und Prioritäten des Unternehmens.

"Enterprise-Modeling" stellt die Hilfsmittel für diese Bestandsaufnahme bereit. Mit den Mitteln des Enterprise Modeling formuliert, bleibt die Vision eines Unternehmens bezüglich seiner künftigen Rolle und der Gestaltung seiner Geschäfts- und Arbeitsprozesse nicht vage und unverbindlich, sondern kann vielmehr konkret in praktisches Handeln umgesetzt werden. Dabei gilt es, die Ressourcen des Unternehmens so zu konfigurieren, daß die Anforderungen, die die jeweiligen betrieblichen Informationsflüsse an die Kommunikationsdienste stellen, erfüllbar werden. Dies ist letztlich die Aufgabe eines "Enterprise Configuration Managements", das unternehmensweit alle Installationen in Hard- und Software berücksichtigt, auf der die Kommunikationsdienste für die Endbenutzer beruhen.

Komplexität der Netzstrukturen nimmt zu

Aus den eben beschrieben Gründen werden die Netze der Unternehmen immer komplexer. Sie verbinden eine wachsende Zahl von Netzkomponenten und Endsystemen unterschiedlicher Hersteller für immer mehr Benutzer an immer mehr Standorten - dies alles auf der Grundlage verschiedener Basistechniken und Architekturen wie etwa SNA, Decnet, Transdata, dem TCP/IP Umfeld, LANs und PC-Netze. Diese Strukturen erfordern vollkommen unterschiedliche Verfahren und Kenntnisse zu ihrer Betreuung und bilden deshalb eigenständige Domänen des Netzbetriebs.

Nicht nur die Connectivity wächst daher, sondern auch der Grad an Interoperabilität zwischen einer wachsenden Zahl von Systemen, die verteilte Anwendungen realisieren. Dadurch werden in betrieblicher Hinsicht die traditionellen Abgrenzungen zwischen System-, Netz- und Anwendungs-Management zunehmend unscharf und die Zuordnung von Zuständigkeiten, beispielsweise für die Fehlersuche, schwieriger.

Die zentrale Herausforderung an das Netz- und System-Management liegt also darin, die wachsende Komplexität der vernetzten Informationssysteme zu beherrschen. Da der Personalbestand für die Betreuung der Netze und Systeme im allgemeinen eng beschränkt ist, bleibt als Ausweg nur das Bestreben, die Produktivität im Netz- und System-Management zu erhöhen.

Die Antwort auf diese Fragen kann - mit Blick auf den Betreuungsaufwand - in zwei Richtungen gesucht werden: Das Personal durch eine Steigerung des Automatisierungsgrads von Routineaufgaben zu entlasten und es bei den Aufgaben, die nach wie vor Bedienereingriffe erfordern, durch integrierte Informationssysteme wirksamer zu unterstützen. Beide Aspekte setzen ein systematisches Informations-Management voraus.

Informations-Management betrifft die Regeln, Modelle und Mechanismen, nach denen alle Informationen, die für die automatische oder manuelle Ausführung der Aufgaben im Netz- und System-Management erforderlich sind, gesammelt, verwaltet, aufbereitet und dargestellt werden.

An ein Informations-Management, das den heutigen Aufgaben im Netz- und System -Management gerecht werden soll, sind demnach folgende Anforderungen zu stellen: Einmal muß die Integration umfassender, heterogener Netz- und Objektwelten in einen einheitlichen Modellierungsrahmen erfolgen. Zum anderen darf sich die Modellierung nicht auf die Behandlung isolierter Objekte beschränken, sondern muß die Relationen und Wechselbeziehungen zwischen den Objekten im Sinne eines Netzmodells darstellen.

Ferner sollte es eine "Interpretation" der Datenflut, die Filterung und Verdichtung von Management-Daten zu aussagekräftigen Informationen sowie die Einbettung der Informationsdarstellungen in die Netz - und System -Managementprozesse des Betriebspersonals und in deren organisatorischen Kontext leisten.

Integrationstechnik steht erst am Anfang

Für zahlreiche Netzkomponenten wie Router, Bridges, Sternkoppler, Vermittlungsrechner oder Vorrechner wurden sogenannte "Element-Management-Systems" entwickelt, deren Agenten zunächst nur mit proprietären Management-Shells bedient werden konnten. Element-Management-Systeme bearbeiten isolierte Objekte und jeweils einzelne Komponenten Erst die Einführung integrativer Management-Architekturen namhafter Hersteller wie zum Beispiel HP Open View, Sun Net Manager und DEC EMA hat die Komponenten-Hersteller dazu bewegt, ihre Geräte - sofern sie managementfähig waren - über produktspezifische Module in die Shells dieser Architekturen zu integrieren .

Die Betreiber wurden dadurch aus der für sie mißlichen Situation befreit, für das Management der verschiedenen Netzkomponenten jeweils - eigene Bedienstationen oder eigene Benutzeroberflächen einsetzen zu müssen. Die Shells der integrativen Architekturen behandeln die produktspezifischen Moduln beim heutigen Stand der Integrationstechnik jedoch weiterhin wie Element-Manager. Eine über die Element-Funktionen hinausgehende Integration ist also unter diesen Umständen nicht gegeben.

Die Entwicklung von produktspezifischen Moduln erfolgt mit Werkzeugen auf der Basis von Funktionsbibliotheken in C oder C++ . Angesichts der Komplexität der Netzprodukte ist dies für die Komponenten-Hersteller mit hohem Aufwand verbunden. Kurze Produktzyklen und die Vielfalt der Varianten bringen zusätzliche Schwierigkeiten mit sich, um mit der Integration Schritt zu halten.

Konzeptionell liegt der Schlüssel zur Behandlung der Komplexität heterogener, vernetzter Objektwelten im Rahmen der verfügbaren integrativen Netzarchitekturen bei der Verwendung eines objektorientierten Daten- und Informationsmodells. Woran es den heutigen Ansätzen jedoch fehlt, ist ein ausreichend mächtiges Werkzeug zur Bearbeitung der Objektwelt auf der Netzebene in ihrer Dynamik.

Diagnose setzt Beobachtung voraus

Mit einer komponentenweisen Modellierung des Netzes die keine Möglichkeit vorsieht, "Strukturwissen" darzustellen und auszuwerten, kann die Dynamik des Netzes nur unzureichend erfaßt und kaum angemessen interpretiert werden. Komplexe Applikationen wie etwa eine Diagnoseunterstützung lassen sich auf der Grundlage solcher Netzmodelle kaum effizient realisieren, denn dafür wäre die Beobachtung und Darstellung von Wirkungszusammenhängen über das gesamte Netz hinweg Voraussetzung, für die bei diesem Ansatz keine Beschreibungsmittel existieren.

Die Komplexität des Netzbetriebs läßt sich durch diese, auf einzelne Elemente bezogene Sichtweise kaum wirksam verringern. Eine umfassende Netzbeschreibung sollte daher zumindest Informationen über die Netzkomponenten und ihre Kommunikationscharakteristika, die Topologie sowie die Organisationstruktur des am Netzbetrieb beteiligten Personals beinhalten.

*Jürgen Lohrmann ist Consultant bei der ICS Intelligent Communication Software GmbH, München.