Prüfstein ist des zweckmäßige Zusammenspiel der Informationen:

Netzwerk-Management:Viele Tools - wenig Integration

26.06.1987

Die Organisation unternehmensweiter Datenkommunikation in Verbindung mit der Nutzung der verschiedenen Postdienste wie HfD, Datex-P, Datex-L. Fernsprechnetz und last but not least demnächst auch ISDN bereitet Probleme genug. Wirtschaftliche Datenübertragung erfordert ein schlagkräftiges Netzwerk-Management, also eine Mischung aus Frühwarnsystem, Recovery-Verfahren im Störungsfall und aussagefählge Performance- und Verfügbarkeits-Auswertungen als Planungshilfe. Tools mit wohlklingenden Namen gibt es genug. Wer jedoch genauer hinsieht, erkennt schnell die Grenzen solcher Soft- und Hardware-Werkzeuge, besonders wenn es um das zweckmäßige Zusammenspiel der Informationen geht.

Hard- und Software für den Aufbau von Datenübertragungsnetzen gibt es ausreichend am Markt. Was das Netzwerk-Management betrifft, so fühlen sich die meisten Betreiber allerdings zu Recht im Stich gelassen.

Nicht zufällig kommen die meisten Netzwerk-Management-Tools aus den Hard und Softwarelabors herstellverunabhängiger Anbieter, oder sie wurden sogar von Anwendern selbst entwickelt. Bild 1 zeigt eine Auflistung verfügbarer Softwarepakete die mit der Steuerung des Netzwerkes in direktem oder indirektem Zusammenhang stehen. (Die Liste erhebt keinen Anspruch auf Vollständigkeit.) Allein schon die Klassifizierung (in dieserm Fall nach Einsatzgebiet und Bedienungspersonal) macht einen Teil der Problematik deutlich.

Ein- und dasselbe Netzwerk wird von verschiedenen Mitarbeitern unter Zuhilfenahme verschiedener Tools überwacht bezienungweise gesteuert. (Ein in Klammern gesetzes Kreus indiziert, daß dieses Tool für die jeweilige Aufgabe nur bedingt aussage- bezienungsweise einsatzfähig ist.)

Die Korrelation der Tools aufeinander ist mangelhaft oder fehlt oft völlig. Die linke Hand weiß also häufig nicht, was die rechte tut. Eine genauere Analyse in Form einer Gegenüberstellung der Leistungen und der Redundanz ergibt zusammengefaßt folgende Ist-Situation:

1. Es werden oftmals zu viele Informationen gesammelt. Eine Auswertung wäre nur dann sinnvoll, wenn eine Filtrierung beziehungsweise Extraktion nach Vorgaben des Operators in Standardformaten möglich wäre.

2. Da alle Tools zumeist unabhängig voneinander entstanden sind, gibt es kaum Korrelationen.

3. Viele Informationen sind irrelevant für den Operator beziehungsweise das Top-Management.

4. Das physikalische und logische Netzwerk-Management ist nach wie vor getrennt. Leitungs-Backup-Systeme, zum Beispiel Matrix-Switches, existieren als Insellösungen mit völlig unterschiedlichem Handling.

5. Eine Zusammenfassung von multiplen Kommunikationsformen fehlt, wenn nicht ganz, dann zumindest weitgehend. Je mehr Postdienste genutzt werden, desto mehr KontroIIsysteme mit unterschiedlicher Benutzeroberfläche sind im Einsatz.

6. Die verfügbaren Auswertungen entstehen meist ad hoc nach ständig wechselnden Gesichtspunkten und sind dadurch kaum zu interpretieren.

Traurig, aber wahr: Es gibt noch zu viele Datennetze, bei denen der Anwender die Rolle des Alarmsystens übernimmt. Anders ausgedrückt: Erst der Aufruf des Kunden informiert das Netzwerk-Management darüber, daß es irgendwo ein Problem gibt. Inzwischen hat man wertvolle Zeit verloren.

Oft kündigt sich ein solches Malheur als immer schlechter werdende Response-Time oder in irgendeiner anderen Form früh genug an. An dieser Stelle heißt es, über Werkzeuge zu verfügen, die derartige Grenzwert-Überschreitungen rechtzeitig und eindeutig genug erkennen. Dabei sollte ein schneller Überblick zum Beispiel in Form einer graphischen Darstellung gegeben sein - und nicht ein Zahlenfriedhof, der kaum zu interpretieren ist.

Im Idealfall werden alle oder nur kritische Leitungen nach folgenden Kriterien überwacht: Performance (Antwortzeiten), Traffic (Datenmenge), Availability (Verfügbarkeit), Utilization (Verhältnis Ist-Last zur Lastgrenze), Incidents (Zwischenfälle). Sinnvoll ist außerdem eine Korrelation mit den wichtigsten Software-Monitoren, etwa QMF, SMF, CMF, sowie eventuell vorhandener Kommunikations-Software wie NDLM, NPM, Mazdamon, NetView, wobei die Reports aus den obengenannten Tools gefiltext und standardisiert werden sollten. Empfehlenswert ist auch die Einbindung von Backup-Systemen wie Matrix-Switches oder Kanalschalter.

Anhand der Architektur des Net/Command-Net/Adviser-Systems von Avant-Garde (Bild) wird deutlich, daß der nächste logische Schritt, nämlich die Zusammenfassung mehrerer passiver und interaktiver Tools (auch unterschiedlicher Hersteller), zu einem Überwachungs- und Kommandosystem durchaus machbar ist. Solche Expertensysteme sind schon heute im Einsatz, haben sich bestens bewährt und sind wohl der einzige Ausweg aus der Misere Netzwerk-Management.

Mainframe-Hersteller wie IBM haben klar erkannt, daß es immer schwerer wird, Netzwerke zu verkaufen und zu betreiben, ohne daß dabei dem Kunden gleichzeitig Hard- und Softwarehilfen für den professionellen Betrieb angeboten werden. Mit der Ankündigung von IBMs Netview etwa glaubten nicht wenige Anwender, es gäbe mal wieder einen neuen Standard, nicht gut, nicht schlecht, wie Standards eben (in vielen Fällen) sind.

Ein großer Prozentsatz der heutigen Netzwerke ist jedoch heterogen. Technisch-wissenschaftliche Rechner kommunizieren über das gleiche Netz wie kommerzielle Rechner. Dies bedeutet unterschiedliche Protokolle und Hardware verschiedener Hersteller und fast immer den Verzicht auf ein herstellerabhängiges Netzwerk-Managementsystem. (Es sei denn, man kann es sich leisten mehrere voneinander unabhängige Netze mit eigener Netzwerk-Crew aufzubauen.) Dazu kommen zudem noch die extrem hohen Gebühren der Bundespost im Vergleich zu anderen Ländern.

Kritische Überwachung des Netzes das A und O

Sicher ist der Gedanke verlockend, daß der Hersteller Hard- und Software, Know-how und Management-Tools liefert. Doch Netzwerke managen bedeutet, sie kritisch zu überwachen und Schwachstellen aufzudecken, auch wenn sie durch das Design des Produkts bedingt sind, also vom Hersteller verursacht werden.

In umfangreichen Untersuchungen in den USA zum Betrieb eines Netzwerks wurde ermittelt, daß in den Host beziehungsweise Front-End-Prozessor integrierte Netzwerk-Software einen Overhead von nicht selten 15 Prozent und mehr bewirkt. Herstellerunabhängige Überwachungskonzepte dagegen basieren in den meisten Fällen auf außerhalb des Hosts oder Front-End-Prozessors betriebenen 16- oder 32-Bit-Rechnern. Dem Anwender entsteht also keine zusätzliche Belastung der Rechnerkomponenten. Investiert ein Anwender diese 15 Prozent, für die er zwar bezahlt, aber keine Gegenleistung in Form von Datendurchsatz und/oder respektablen Antwortzeiten erhält, in ein herstellerunabhängiges Netzwerk-Managementsystem, hat er Geldmittel genug, um ein oder mehrere Spitzenprodukte zu erwerben.

In den USA ist das gang und gäbe - was wieder bestätigt, daß ein Großteil der dortigen Anwender eine völlige Abhängigkeit von Branchenriesen wie IBM aus gutem Grunde ablehnt.

* Paul Hoffmann ist Geschäftsführer der Datakom Gesellschaft für Datenkommunikation in

Wörth.